
Как ChatGPT и другие большие языковые модели помогают бороться с дезинформацией
Большие языковые модели (LLM) способны быстро генерировать тексты, которые бывает трудно отличить от написанных людьми. Эти модели стали все более популярными после публичного релиза ChatGPT — высокоэффективной LLM, разработанной OpenAI.
Последние исследования, оценивающие LLM, в основном тестировали их способность создавать хорошо написанные тексты: эссе, документы или, к примеру, эффективный компьютерный код. Но помимо этого языковые модели потенциально могут помочь людям с решением проблемы дезинформации в СМИ.
Кевин Матте Карамансьон, исследователь из Университета Висконсин в Стаут, провел исследование, оценивающее способность самых известных больших языковых моделей определять, является ли новость правдивой или фальшивой. Результаты его работы могут способствовать будущему использованию LLM для борьбы с дезинформацией в интернете.
— Кевин Матте Карамансьон
Исследователи оценили производительность больших языковых моделей, используя тестовый набор из 100 проверенных фактов новостных материалов от независимых факт-чекеров. Затем они представили каждый из этих новостных материалов моделям в контролируемых условиях, а после классифицировали их ответы на одну из трех категорий: «Правда», «Ложь» и «Частично Правда/Ложь». Эффективность моделей измерялась на основе того, насколько точно они классифицировали материалы по сравнению с независимыми агентствами.
В исследовании были использованы четыре LLM: Chat GPT-3.0 и Chat GPT-4.0 от Open AI, Bard/LaMDA от Google и Bing AI от Microsoft. Ученый дал этим моделям одни и те же новостные материалы, которые были предварительно проверены, и затем сравнил способность определять достоверность информации.
— Кевин Матте Карамансьон.
Исследователь подчеркнул, что планирует продолжать тестирования, изучать новые LLM и взаимодействие между когнитивными способностями человека и технологией ИИ в области проверки фактов из СМИ.
Последние исследования, оценивающие LLM, в основном тестировали их способность создавать хорошо написанные тексты: эссе, документы или, к примеру, эффективный компьютерный код. Но помимо этого языковые модели потенциально могут помочь людям с решением проблемы дезинформации в СМИ.
Кевин Матте Карамансьон, исследователь из Университета Висконсин в Стаут, провел исследование, оценивающее способность самых известных больших языковых моделей определять, является ли новость правдивой или фальшивой. Результаты его работы могут способствовать будущему использованию LLM для борьбы с дезинформацией в интернете.
Вдохновением для моей последней статьи послужила необходимость понять возможности и ограничения различных LLM в борьбе с дезинформацией. Цель работы — тщательно проверить умение этих моделей различать факты от вымысла, используя контролируемую симуляцию и проверенные факты в качестве примера.
— Кевин Матте Карамансьон
Исследователи оценили производительность больших языковых моделей, используя тестовый набор из 100 проверенных фактов новостных материалов от независимых факт-чекеров. Затем они представили каждый из этих новостных материалов моделям в контролируемых условиях, а после классифицировали их ответы на одну из трех категорий: «Правда», «Ложь» и «Частично Правда/Ложь». Эффективность моделей измерялась на основе того, насколько точно они классифицировали материалы по сравнению с независимыми агентствами.
В исследовании были использованы четыре LLM: Chat GPT-3.0 и Chat GPT-4.0 от Open AI, Bard/LaMDA от Google и Bing AI от Microsoft. Ученый дал этим моделям одни и те же новостные материалы, которые были предварительно проверены, и затем сравнил способность определять достоверность информации.
Мы провели сравнительную оценку основных LLM на предмет способности различать правду от обмана. Было обнаружено, что Chat GPT-4.0 от OpenAI превосходит аналоги. Тем не менее, все языковые модели гораздо хуже людей в факт-чекинге, что подчеркивает незаменимость когнитивных способностей человека. Эти результаты могут привести к развитию возможностей ИИ в области проверки фактов при обеспечении сбалансированной, симбиотической интеграции с навыками человека.
— Кевин Матте Карамансьон.
Исследователь подчеркнул, что планирует продолжать тестирования, изучать новые LLM и взаимодействие между когнитивными способностями человека и технологией ИИ в области проверки фактов из СМИ.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

NASA объявило: Найдены самые убедительные доказательства существования жизни на Марсе
Ученые тем временем выясняют, как могли выглядеть древние жители Красной планеты...

16-тонный саркофаг, заполненный сокровищами, может подтвердить одну из самых таинственных и кровавых легенд древнего Китая
Какой секрет хранила эта гробница, что оставалась единственной нетронутой два тысячелетия?...

Ученый утверждает: у него есть доказательства, что мы живем в матрице
По словам Мелвина Вопсона, подсказки он нашел в ДНК, расширении Вселенной и фундаментальных законах физики...

Найдена самая похожая на Землю планета. Готовимся к переезду?
TRAPPIST-1e идеальная: тепло, есть вода и атмосфера. Чем же тогда недовольны астрофизики?...

Новая операция по объединению людей и животных может подарить… вечную жизнь
Медики признаются: уже сейчас можно сделать новое тело человека. Но один орган пока не поддается науке...

Оказывается, решение проблемы выбоин на дорогах существует уже почти 100 лет
Почему технология, забытая полвека назад, возвращается и становится очень популярной?...

Выяснилось, что полное восстановление озонового слоя закончится глобальной катастрофой
Как так вышло, что в борьбе за экологию человечество сделало себе еще хуже?...

К 2035 году сектор Газа должен стать… самым продвинутым регионом на планете под управлением ИИ
По словам экспертов, в дерзком эксперименте за 100 млрд долларов есть только один большой вопрос: Куда выселить местное население?...

Разгадка феномена «копченых» мумий может переписать древнейшую историю человечества
Поразительно: этот погребальный обычай, возможно, используют уже 42 000 лет подряд!...