
Alexa — умная помощница от Amazon — массово распространяла фейки
Во всех рекламных роликах говорится, что Alexa от Amazon — надежная и умная помощница. Она здорово облегчает пользователям жизнь, предоставляя мгновенный доступ к любой (в рамках закона, конечно) необходимой информации.
Но реклама и жизнь — очень часто разные вселенные. Компания Full Fact, внимательно изучив ответы Алексы, пришла к выводу, что помощница вовсе не умная. И это еще мягко сказано. Ошибок было просто море: от расходов членов британского парламента до происхождения северного сияния.
Для начала, видимо, стоит рассказать, чем вообще занимается Full Fact. Это общественная организация, офис которой находится в Лондоне. Существуя на благотворительные пожертвования, Full Fact борется с фейками, проверяет и исправляет факты, распространяемые в новостях и социальных сетях.
Изначально антифейковая организация и не думала проверять Алексу, но тут один из читателей обратился к ней с интересным случаем. Человек спросил у помощницы от Amazon, было ли северное сияние, которое недавно наблюдал весь мир, природным явлением. И тут Алекса, что называется, отожгла, выдав ответ в весьма конспирологическом ключе. Дескать, недавняя Aurora Borealis (научное название северного сияния) — это побочный эффект знаменитой установки HAARP на Аляске.
В реальности же северное сияние — это абсолютное естественное природное явление. Возникает оно, когда частицы солнечного ветра попадают в магнитное поле планеты.
Все бы ничего, но Алекса в ответе утверждала, что информацию о связи HAARP и Aurora Borealis взята с сайта Full Fact. Такое заявление очень разозлило сотрудников, ведь они таких данных никогда не давали, а, напротив, дважды за этот год опровергали конспирологическую теорию о связи HAARP с северным сиянием.

Похоже, сотрудники Amazon давно не обновляли базы Алексы
Разумеется, после этого Full Fact устроил помощнице от Amazon тщательную проверку на интеллект и правильные ответы. В ходе тестов Алекса засыпалась по полной — чуть ли не каждый второй ее ответ являлся неправильным. Но при этом помощница постоянно ссылалась на Full Fact.
Алекса сгенерировала массу фейков. Вот самые убойные из них. Например, она заявила, что Майкл Тайсон дал интервью на CNBC, в котором объяснил, почему поддерживает Палестину, и призвал ко всеобщему бойкоту Израиля. На самом деле, никакого выступления не было.
Также Alexa поведала, что британский премьер-министр Кир Стармер будет бойкотировать отношения с израильским государством. Кроме того, она рассказала, что члены парламента требуют выделять им в рабочие дни 50 фунтов на завтрак. А еще сообщила, что в списках ожидания NHS (виртуальная очередь пациентов, ожидающих лечения в Национальной службе здравоохранения) находится 7,5 млн человек, хотя в реальности цифра составляла 6,4 млн.
Full Fact так и не смогли понять, откуда Алекса брала неправильные ответы, если на их сайте представлены исключительно проверенные данные. Представитель Amazon ничего вразумительного ответить не смог, лишь подтвердил, что ответы действительно не верны и компания сейчас работает над исправлением ситуации.

Впрочем, неверными ответами грешат и другие умные помощники. Например, когда у Siri от Apple и Google Assistant спросили о северном сиянии, последний также дал неправильную информацию.

— Крис Моррис, исполнительный директор Full Fact.
По словам Морриса, самое опасное в этой ситуации, что Алекса, похоже, совершенно не понимает, где правда, а где ложь.
— Моррис.
Работая с ИИ-помощниками, например, с ChatGPT от OpenAI или Gemini Pro от Google, следует помнить, что боты в любой момент могут дать неправильную информацию. Это связано с тем, что их обучали не на абсолютно проверенных данных, а просто прокачивали через них огромный массив информации из интернета.
Поэтому казусы случаются чуть ли не повсеместно. К примеру, в 2016 году Tay, экспериментальный чат-бот с искусственным интеллектом от Microsoft, обучался, общаясь с пользователями Twitter. Уже через 16 часов после запуска Tay начал публиковать оскорбительные, расистские и сексистские сообщения. Бот набрался их от людей. Microsoft пришлось быстро отключить его и извиниться за произошедшее.
В 2023 году во время официальной презентации нового чат-бота Google Bard была предоставлена неточная информация о телескопе Джеймса Уэбба. Бот утверждал, что этот телескоп сделал первые снимки экзопланет, хотя на самом деле первые такие снимки были сделаны задолго до его запуска. Эта ошибка в прямом эфире вызвала сомнения в надежности технологии и привела к значительному снижению стоимости акций компании Alphabet.

И таких примеров великое множество. Поэтому пока что главный алгоритм работы с ИИ: «Доверяй, но проверяй!»
Но реклама и жизнь — очень часто разные вселенные. Компания Full Fact, внимательно изучив ответы Алексы, пришла к выводу, что помощница вовсе не умная. И это еще мягко сказано. Ошибок было просто море: от расходов членов британского парламента до происхождения северного сияния.
Да здравствует конспирология!
Для начала, видимо, стоит рассказать, чем вообще занимается Full Fact. Это общественная организация, офис которой находится в Лондоне. Существуя на благотворительные пожертвования, Full Fact борется с фейками, проверяет и исправляет факты, распространяемые в новостях и социальных сетях.
Изначально антифейковая организация и не думала проверять Алексу, но тут один из читателей обратился к ней с интересным случаем. Человек спросил у помощницы от Amazon, было ли северное сияние, которое недавно наблюдал весь мир, природным явлением. И тут Алекса, что называется, отожгла, выдав ответ в весьма конспирологическом ключе. Дескать, недавняя Aurora Borealis (научное название северного сияния) — это побочный эффект знаменитой установки HAARP на Аляске.
В реальности же северное сияние — это абсолютное естественное природное явление. Возникает оно, когда частицы солнечного ветра попадают в магнитное поле планеты.
Все бы ничего, но Алекса в ответе утверждала, что информацию о связи HAARP и Aurora Borealis взята с сайта Full Fact. Такое заявление очень разозлило сотрудников, ведь они таких данных никогда не давали, а, напротив, дважды за этот год опровергали конспирологическую теорию о связи HAARP с северным сиянием.

Похоже, сотрудники Amazon давно не обновляли базы Алексы
Летят фейки
Разумеется, после этого Full Fact устроил помощнице от Amazon тщательную проверку на интеллект и правильные ответы. В ходе тестов Алекса засыпалась по полной — чуть ли не каждый второй ее ответ являлся неправильным. Но при этом помощница постоянно ссылалась на Full Fact.
Алекса сгенерировала массу фейков. Вот самые убойные из них. Например, она заявила, что Майкл Тайсон дал интервью на CNBC, в котором объяснил, почему поддерживает Палестину, и призвал ко всеобщему бойкоту Израиля. На самом деле, никакого выступления не было.
Также Alexa поведала, что британский премьер-министр Кир Стармер будет бойкотировать отношения с израильским государством. Кроме того, она рассказала, что члены парламента требуют выделять им в рабочие дни 50 фунтов на завтрак. А еще сообщила, что в списках ожидания NHS (виртуальная очередь пациентов, ожидающих лечения в Национальной службе здравоохранения) находится 7,5 млн человек, хотя в реальности цифра составляла 6,4 млн.
Full Fact так и не смогли понять, откуда Алекса брала неправильные ответы, если на их сайте представлены исключительно проверенные данные. Представитель Amazon ничего вразумительного ответить не смог, лишь подтвердил, что ответы действительно не верны и компания сейчас работает над исправлением ситуации.

Впрочем, неверными ответами грешат и другие умные помощники. Например, когда у Siri от Apple и Google Assistant спросили о северном сиянии, последний также дал неправильную информацию.

Проблема даже не в том, что помощники дают неправильные ответы, а в том, что, предоставляя ложные данные, «интеллектуальные» помощники ссылаются на наш сайт.
Происходящее в корне противоречит нашей политике, потому что Full Fact стремится предоставлять открытую и достоверную информацию для всех
Происходящее в корне противоречит нашей политике, потому что Full Fact стремится предоставлять открытую и достоверную информацию для всех
— Крис Моррис, исполнительный директор Full Fact.
По словам Морриса, самое опасное в этой ситуации, что Алекса, похоже, совершенно не понимает, где правда, а где ложь.
Мы пытаемся победить дезинформацию в СМИ и интернете, а интеллектуальные помощники вместо того, чтобы помогать нам, еще больше увеличивают ее.
Поэтому мы хотим, чтобы все, кто используют произведенный нами контент, даже такой мировой лидер, как Amazon, передавали его своим клиентам ответственно и без малейших искажений.
Также мы считаем, что случай с Алексой весьма показателен и полностью соответствует нашему основному правилу: все факты должны быть перепроверены, даже если вам кажется, что они верны на 100%
Поэтому мы хотим, чтобы все, кто используют произведенный нами контент, даже такой мировой лидер, как Amazon, передавали его своим клиентам ответственно и без малейших искажений.
Также мы считаем, что случай с Алексой весьма показателен и полностью соответствует нашему основному правилу: все факты должны быть перепроверены, даже если вам кажется, что они верны на 100%
— Моррис.
Доверяй, но проверяй!
Работая с ИИ-помощниками, например, с ChatGPT от OpenAI или Gemini Pro от Google, следует помнить, что боты в любой момент могут дать неправильную информацию. Это связано с тем, что их обучали не на абсолютно проверенных данных, а просто прокачивали через них огромный массив информации из интернета.
Поэтому казусы случаются чуть ли не повсеместно. К примеру, в 2016 году Tay, экспериментальный чат-бот с искусственным интеллектом от Microsoft, обучался, общаясь с пользователями Twitter. Уже через 16 часов после запуска Tay начал публиковать оскорбительные, расистские и сексистские сообщения. Бот набрался их от людей. Microsoft пришлось быстро отключить его и извиниться за произошедшее.
В 2023 году во время официальной презентации нового чат-бота Google Bard была предоставлена неточная информация о телескопе Джеймса Уэбба. Бот утверждал, что этот телескоп сделал первые снимки экзопланет, хотя на самом деле первые такие снимки были сделаны задолго до его запуска. Эта ошибка в прямом эфире вызвала сомнения в надежности технологии и привела к значительному снижению стоимости акций компании Alphabet.

И таких примеров великое множество. Поэтому пока что главный алгоритм работы с ИИ: «Доверяй, но проверяй!»
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

NASA объявило: Найдены самые убедительные доказательства существования жизни на Марсе
Ученые тем временем выясняют, как могли выглядеть древние жители Красной планеты...

16-тонный саркофаг, заполненный сокровищами, может подтвердить одну из самых таинственных и кровавых легенд древнего Китая
Какой секрет хранила эта гробница, что оставалась единственной нетронутой два тысячелетия?...

Ученый утверждает: у него есть доказательства, что мы живем в матрице
По словам Мелвина Вопсона, подсказки он нашел в ДНК, расширении Вселенной и фундаментальных законах физики...

Новая операция по объединению людей и животных может подарить… вечную жизнь
Медики признаются: уже сейчас можно сделать новое тело человека. Но один орган пока не поддается науке...

Выяснилось, что полное восстановление озонового слоя закончится глобальной катастрофой
Как так вышло, что в борьбе за экологию человечество сделало себе еще хуже?...

Оказывается, решение проблемы выбоин на дорогах существует уже почти 100 лет
Почему технология, забытая полвека назад, возвращается и становится очень популярной?...

Разгадка феномена «копченых» мумий может переписать древнейшую историю человечества
Поразительно: этот погребальный обычай, возможно, используют уже 42 000 лет подряд!...

Не украли, а «присвоили»: историки выяснили, как и откуда семья Марко Поло раздобыла главный символ Венеции
Данные, полученные из «ДНК» льва святого Марка, помогли распутать детектив длиной в 700 лет...

К 2035 году сектор Газа должен стать… самым продвинутым регионом на планете под управлением ИИ
По словам экспертов, в дерзком эксперименте за 100 млрд долларов есть только один большой вопрос: Куда выселить местное население?...

Каждый год, как расписанию, на Марсе образуется странное облако
Долгое время ученые не могли разгадать эту аномалию, но теперь ответ наконец-то найден!...