ВСЛУХ

Первая реальная польза ИИ: он смог разубедить сторонников теории заговора

Первая реальная польза ИИ: он смог разубедить сторонников теории заговора
Новое исследование, которое провели специалисты Массачусетского и Корнельского университетов, доказало, что беседы с чат-ботами типа GPT-4 могут привести в чувства даже самых оголтелых конспирологов.


«Железные» аргументы


Исследование получилось достаточно масштабным, так как ученым удалось привлечь к эксперименту 2190 сторонников заговора. Добровольцы описали варианты теории заговора, в которые они верили, и привели аргументы, которые, по мнению конспирологов, их полностью подтверждали.

Затем каждый участник эксперимента провел беседу с GPT-4. Разговор состоял из трех этапов, в каждом из которых языковая модель с помощью различных теорий, инструментов на основе критического мышления и контрдоказательств пыталась опровергнуть устоявшееся мировоззрения конспирологов.

Результаты бесед показали, что GPT-4 удалось сделать так, чтобы собеседник усомнился в правильности своей точки зрения. После разговора с ИИ вера в теорию заговора у фанатов альтернативных гипотез уменьшилась на 20%.

Надо отметить, что нейросеть поговорила с конспирологами настолько качественно, что даже через пару месяцев участники эксперимента сохраняли иммунитет против таких сильных теорий заговора, как, например, о том, что Россия управляла выборами в США в 2020 году, или про то, что пандемию COVID-19 спровоцировали искусственным путем.

Самое интересное, что ИИ был настолько убедителен, что смог повлиять даже на людей с глубоко укоренившимися убеждениями. При этом уменьшилась вера и в те теории заговора, которые вообще не обсуждались походу беседы. Это говорит о том, что правильно преподнесенные доказательства и аргументы способы переубедить, в том числе и самых замшелых приверженцев.

Нечеловеческая убедительность


С другой стороны, многие конспирологи оказались крепкими орешками. Конечно, после обработки искусственным интеллектом их вера пошатнулась, но ниже 60%, в среднем, не уменьшилась. При этом люди с недостаточно высоким уровнем убежденности в теорию заговора к эксперименту вообще не привлекались. Все, у кого вера была ниже 50%, и вовсе не допустили к исследованию.

Специалисты говорят: им удалось разрушить стереотипы о том, сторонники теории заговора практически невосприимчивы к аргументам. На самом деле, если конспирологам привести очень подробные и адаптированные к их уровню развития доказательства, они способны отказаться от своих прежних убеждений.

Ученые утверждают, что их исследование имело определенные ограничения. К примеру, участники эксперимента с самого начала знали, что будут беседовать исключительно с искусственным интеллектом. Поэтому есть вероятность, что результаты могли бы отличаться, если бы конспирологи говорили с людьми. Есть теория, что многие охотнее доверяют компьютеру с нейтральной подачей информации, а вот те же данные, полученные от других людей, воспринимают негативно.

Поэтому необходимы дополнительные исследования, чтобы понять, какие методы убеждения использует ИИ для воздействия на сторонников теории заговора. Кроме того, существует и другая серьезная проблема: пока что не понятно, этично ли вообще использовать мощности нейросетей для влияния на убеждения людей. К примеру, недавно принятый в Европе закон об искусственном интеллекте категорически запрещает воздействовать таким образом на сознание человека.

Чем дальше, тем страшнее


Кроме того, существует и другая опасность. ИИ ведь может производить и противоположные действия, например, ему не составляет никакого труда заставить собеседников поверить в плоскую землю или в то, что Папа Римский, на самом деле, — тайный рептилоид.

Так, совсем недавно исследователи из Политехнической школы Лозанны и Итальянского фонда Бруно Кесслера доказали, что большие языковые модели, в том числе GPT-4, обладают сверхчеловеческой убедительностью, если сравнивать с обычными людьми. Аргументам, которые он выдвигал, доверяли на 81,7% больше, чем доводам живых людей, особенно, если чат-бот получал доступ к персонализированным данным оппонентов. Такая информация включает в себя пол, возраст, расу, образование, трудоустройство и политическую ориентацию.

Ученые опасаются, что всю мощь искусственного интеллекта будут использовать мошенники. На основе профилей людей в социальных сетях и покупательского поведения, с помощью чат-ботов злоумышленники смогут максимально эффективно убеждать и обманывать своих жертв.

Также есть опасения, что большие языковые модели смогут воздействовать на электорат, заставляя проголосовать за нужного политика. С силой нечеловеческого убеждения сделать это будет не особенно сложно.

Исследователи настоятельно рекомендуют операторам онлайн-платформ предпринять шаги по противодействию распространению таких стратегий убеждения, основанных на искусственном интеллекте. Судя по всему, очень скоро в интернете у людей появятся персональные ИИ-защитники, которые будут противодействовать мошенническим чат-ботам.

Автор:

Мы в Мы в Яндекс Дзен
Топ странных, но крутых вопросов современной физикиРодились первые дети, зачатые с помощью робота