Alexa — умная помощница от Amazon — массово распространяла фейки
276

Alexa — умная помощница от Amazon — массово распространяла фейки

Во всех рекламных роликах говорится, что Alexa от Amazon — надежная и умная помощница. Она здорово облегчает пользователям жизнь, предоставляя мгновенный доступ к любой (в рамках закона, конечно) необходимой информации.


Но реклама и жизнь — очень часто разные вселенные. Компания Full Fact, внимательно изучив ответы Алексы, пришла к выводу, что помощница вовсе не умная. И это еще мягко сказано. Ошибок было просто море: от расходов членов британского парламента до происхождения северного сияния.

Да здравствует конспирология!


Для начала, видимо, стоит рассказать, чем вообще занимается Full Fact. Это общественная организация, офис которой находится в Лондоне. Существуя на благотворительные пожертвования, Full Fact борется с фейками, проверяет и исправляет факты, распространяемые в новостях и социальных сетях.

Изначально антифейковая организация и не думала проверять Алексу, но тут один из читателей обратился к ней с интересным случаем. Человек спросил у помощницы от Amazon, было ли северное сияние, которое недавно наблюдал весь мир, природным явлением. И тут Алекса, что называется, отожгла, выдав ответ в весьма конспирологическом ключе. Дескать, недавняя Aurora Borealis (научное название северного сияния) — это побочный эффект знаменитой установки HAARP на Аляске.

В реальности же северное сияние — это абсолютное естественное природное явление. Возникает оно, когда частицы солнечного ветра попадают в магнитное поле планеты.

Все бы ничего, но Алекса в ответе утверждала, что информацию о связи HAARP и Aurora Borealis взята с сайта Full Fact. Такое заявление очень разозлило сотрудников, ведь они таких данных никогда не давали, а, напротив, дважды за этот год опровергали конспирологическую теорию о связи HAARP с северным сиянием.

Alexa — умная помощница от Amazon — массово распространяла фейки
Похоже, сотрудники Amazon давно не обновляли базы Алексы


Летят фейки


Разумеется, после этого Full Fact устроил помощнице от Amazon тщательную проверку на интеллект и правильные ответы. В ходе тестов Алекса засыпалась по полной — чуть ли не каждый второй ее ответ являлся неправильным. Но при этом помощница постоянно ссылалась на Full Fact.

Алекса сгенерировала массу фейков. Вот самые убойные из них. Например, она заявила, что Майкл Тайсон дал интервью на CNBC, в котором объяснил, почему поддерживает Палестину, и призвал ко всеобщему бойкоту Израиля. На самом деле, никакого выступления не было.

Также Alexa поведала, что британский премьер-министр Кир Стармер будет бойкотировать отношения с израильским государством. Кроме того, она рассказала, что члены парламента требуют выделять им в рабочие дни 50 фунтов на завтрак. А еще сообщила, что в списках ожидания NHS (виртуальная очередь пациентов, ожидающих лечения в Национальной службе здравоохранения) находится 7,5 млн человек, хотя в реальности цифра составляла 6,4 млн.

Full Fact так и не смогли понять, откуда Алекса брала неправильные ответы, если на их сайте представлены исключительно проверенные данные. Представитель Amazon ничего вразумительного ответить не смог, лишь подтвердил, что ответы действительно не верны и компания сейчас работает над исправлением ситуации.




Впрочем, неверными ответами грешат и другие умные помощники. Например, когда у Siri от Apple и Google Assistant спросили о северном сиянии, последний также дал неправильную информацию.




Проблема даже не в том, что помощники дают неправильные ответы, а в том, что, предоставляя ложные данные, «интеллектуальные» помощники ссылаются на наш сайт.

Происходящее в корне противоречит нашей политике, потому что Full Fact стремится предоставлять открытую и достоверную информацию для всех

— Крис Моррис, исполнительный директор Full Fact.

По словам Морриса, самое опасное в этой ситуации, что Алекса, похоже, совершенно не понимает, где правда, а где ложь.

Мы пытаемся победить дезинформацию в СМИ и интернете, а интеллектуальные помощники вместо того, чтобы помогать нам, еще больше увеличивают ее.

Поэтому мы хотим, чтобы все, кто используют произведенный нами контент, даже такой мировой лидер, как Amazon, передавали его своим клиентам ответственно и без малейших искажений.

Также мы считаем, что случай с Алексой весьма показателен и полностью соответствует нашему основному правилу: все факты должны быть перепроверены, даже если вам кажется, что они верны на 100%

— Моррис.

Доверяй, но проверяй!


Работая с ИИ-помощниками, например, с ChatGPT от OpenAI или Gemini Pro от Google, следует помнить, что боты в любой момент могут дать неправильную информацию. Это связано с тем, что их обучали не на абсолютно проверенных данных, а просто прокачивали через них огромный массив информации из интернета.

Поэтому казусы случаются чуть ли не повсеместно. К примеру, в 2016 году Tay, экспериментальный чат-бот с искусственным интеллектом от Microsoft, обучался, общаясь с пользователями Twitter. Уже через 16 часов после запуска Tay начал публиковать оскорбительные, расистские и сексистские сообщения. Бот набрался их от людей. Microsoft пришлось быстро отключить его и извиниться за произошедшее.

В 2023 году во время официальной презентации нового чат-бота Google Bard была предоставлена неточная информация о телескопе Джеймса Уэбба. Бот утверждал, что этот телескоп сделал первые снимки экзопланет, хотя на самом деле первые такие снимки были сделаны задолго до его запуска. Эта ошибка в прямом эфире вызвала сомнения в надежности технологии и привела к значительному снижению стоимости акций компании Alphabet.




И таких примеров великое множество. Поэтому пока что главный алгоритм работы с ИИ: «Доверяй, но проверяй!»
Наши новостные каналы

Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.

Рекомендуем для вас