
Alexa — умная помощница от Amazon — массово распространяла фейки
Во всех рекламных роликах говорится, что Alexa от Amazon — надежная и умная помощница. Она здорово облегчает пользователям жизнь, предоставляя мгновенный доступ к любой (в рамках закона, конечно) необходимой информации.
Но реклама и жизнь — очень часто разные вселенные. Компания Full Fact, внимательно изучив ответы Алексы, пришла к выводу, что помощница вовсе не умная. И это еще мягко сказано. Ошибок было просто море: от расходов членов британского парламента до происхождения северного сияния.
Для начала, видимо, стоит рассказать, чем вообще занимается Full Fact. Это общественная организация, офис которой находится в Лондоне. Существуя на благотворительные пожертвования, Full Fact борется с фейками, проверяет и исправляет факты, распространяемые в новостях и социальных сетях.
Изначально антифейковая организация и не думала проверять Алексу, но тут один из читателей обратился к ней с интересным случаем. Человек спросил у помощницы от Amazon, было ли северное сияние, которое недавно наблюдал весь мир, природным явлением. И тут Алекса, что называется, отожгла, выдав ответ в весьма конспирологическом ключе. Дескать, недавняя Aurora Borealis (научное название северного сияния) — это побочный эффект знаменитой установки HAARP на Аляске.
В реальности же северное сияние — это абсолютное естественное природное явление. Возникает оно, когда частицы солнечного ветра попадают в магнитное поле планеты.
Все бы ничего, но Алекса в ответе утверждала, что информацию о связи HAARP и Aurora Borealis взята с сайта Full Fact. Такое заявление очень разозлило сотрудников, ведь они таких данных никогда не давали, а, напротив, дважды за этот год опровергали конспирологическую теорию о связи HAARP с северным сиянием.

Похоже, сотрудники Amazon давно не обновляли базы Алексы
Разумеется, после этого Full Fact устроил помощнице от Amazon тщательную проверку на интеллект и правильные ответы. В ходе тестов Алекса засыпалась по полной — чуть ли не каждый второй ее ответ являлся неправильным. Но при этом помощница постоянно ссылалась на Full Fact.
Алекса сгенерировала массу фейков. Вот самые убойные из них. Например, она заявила, что Майкл Тайсон дал интервью на CNBC, в котором объяснил, почему поддерживает Палестину, и призвал ко всеобщему бойкоту Израиля. На самом деле, никакого выступления не было.
Также Alexa поведала, что британский премьер-министр Кир Стармер будет бойкотировать отношения с израильским государством. Кроме того, она рассказала, что члены парламента требуют выделять им в рабочие дни 50 фунтов на завтрак. А еще сообщила, что в списках ожидания NHS (виртуальная очередь пациентов, ожидающих лечения в Национальной службе здравоохранения) находится 7,5 млн человек, хотя в реальности цифра составляла 6,4 млн.
Full Fact так и не смогли понять, откуда Алекса брала неправильные ответы, если на их сайте представлены исключительно проверенные данные. Представитель Amazon ничего вразумительного ответить не смог, лишь подтвердил, что ответы действительно не верны и компания сейчас работает над исправлением ситуации.

Впрочем, неверными ответами грешат и другие умные помощники. Например, когда у Siri от Apple и Google Assistant спросили о северном сиянии, последний также дал неправильную информацию.

— Крис Моррис, исполнительный директор Full Fact.
По словам Морриса, самое опасное в этой ситуации, что Алекса, похоже, совершенно не понимает, где правда, а где ложь.
— Моррис.
Работая с ИИ-помощниками, например, с ChatGPT от OpenAI или Gemini Pro от Google, следует помнить, что боты в любой момент могут дать неправильную информацию. Это связано с тем, что их обучали не на абсолютно проверенных данных, а просто прокачивали через них огромный массив информации из интернета.
Поэтому казусы случаются чуть ли не повсеместно. К примеру, в 2016 году Tay, экспериментальный чат-бот с искусственным интеллектом от Microsoft, обучался, общаясь с пользователями Twitter. Уже через 16 часов после запуска Tay начал публиковать оскорбительные, расистские и сексистские сообщения. Бот набрался их от людей. Microsoft пришлось быстро отключить его и извиниться за произошедшее.
В 2023 году во время официальной презентации нового чат-бота Google Bard была предоставлена неточная информация о телескопе Джеймса Уэбба. Бот утверждал, что этот телескоп сделал первые снимки экзопланет, хотя на самом деле первые такие снимки были сделаны задолго до его запуска. Эта ошибка в прямом эфире вызвала сомнения в надежности технологии и привела к значительному снижению стоимости акций компании Alphabet.

И таких примеров великое множество. Поэтому пока что главный алгоритм работы с ИИ: «Доверяй, но проверяй!»
Но реклама и жизнь — очень часто разные вселенные. Компания Full Fact, внимательно изучив ответы Алексы, пришла к выводу, что помощница вовсе не умная. И это еще мягко сказано. Ошибок было просто море: от расходов членов британского парламента до происхождения северного сияния.
Да здравствует конспирология!
Для начала, видимо, стоит рассказать, чем вообще занимается Full Fact. Это общественная организация, офис которой находится в Лондоне. Существуя на благотворительные пожертвования, Full Fact борется с фейками, проверяет и исправляет факты, распространяемые в новостях и социальных сетях.
Изначально антифейковая организация и не думала проверять Алексу, но тут один из читателей обратился к ней с интересным случаем. Человек спросил у помощницы от Amazon, было ли северное сияние, которое недавно наблюдал весь мир, природным явлением. И тут Алекса, что называется, отожгла, выдав ответ в весьма конспирологическом ключе. Дескать, недавняя Aurora Borealis (научное название северного сияния) — это побочный эффект знаменитой установки HAARP на Аляске.
В реальности же северное сияние — это абсолютное естественное природное явление. Возникает оно, когда частицы солнечного ветра попадают в магнитное поле планеты.
Все бы ничего, но Алекса в ответе утверждала, что информацию о связи HAARP и Aurora Borealis взята с сайта Full Fact. Такое заявление очень разозлило сотрудников, ведь они таких данных никогда не давали, а, напротив, дважды за этот год опровергали конспирологическую теорию о связи HAARP с северным сиянием.

Похоже, сотрудники Amazon давно не обновляли базы Алексы
Летят фейки
Разумеется, после этого Full Fact устроил помощнице от Amazon тщательную проверку на интеллект и правильные ответы. В ходе тестов Алекса засыпалась по полной — чуть ли не каждый второй ее ответ являлся неправильным. Но при этом помощница постоянно ссылалась на Full Fact.
Алекса сгенерировала массу фейков. Вот самые убойные из них. Например, она заявила, что Майкл Тайсон дал интервью на CNBC, в котором объяснил, почему поддерживает Палестину, и призвал ко всеобщему бойкоту Израиля. На самом деле, никакого выступления не было.
Также Alexa поведала, что британский премьер-министр Кир Стармер будет бойкотировать отношения с израильским государством. Кроме того, она рассказала, что члены парламента требуют выделять им в рабочие дни 50 фунтов на завтрак. А еще сообщила, что в списках ожидания NHS (виртуальная очередь пациентов, ожидающих лечения в Национальной службе здравоохранения) находится 7,5 млн человек, хотя в реальности цифра составляла 6,4 млн.
Full Fact так и не смогли понять, откуда Алекса брала неправильные ответы, если на их сайте представлены исключительно проверенные данные. Представитель Amazon ничего вразумительного ответить не смог, лишь подтвердил, что ответы действительно не верны и компания сейчас работает над исправлением ситуации.

Впрочем, неверными ответами грешат и другие умные помощники. Например, когда у Siri от Apple и Google Assistant спросили о северном сиянии, последний также дал неправильную информацию.

Проблема даже не в том, что помощники дают неправильные ответы, а в том, что, предоставляя ложные данные, «интеллектуальные» помощники ссылаются на наш сайт.
Происходящее в корне противоречит нашей политике, потому что Full Fact стремится предоставлять открытую и достоверную информацию для всех
Происходящее в корне противоречит нашей политике, потому что Full Fact стремится предоставлять открытую и достоверную информацию для всех
— Крис Моррис, исполнительный директор Full Fact.
По словам Морриса, самое опасное в этой ситуации, что Алекса, похоже, совершенно не понимает, где правда, а где ложь.
Мы пытаемся победить дезинформацию в СМИ и интернете, а интеллектуальные помощники вместо того, чтобы помогать нам, еще больше увеличивают ее.
Поэтому мы хотим, чтобы все, кто используют произведенный нами контент, даже такой мировой лидер, как Amazon, передавали его своим клиентам ответственно и без малейших искажений.
Также мы считаем, что случай с Алексой весьма показателен и полностью соответствует нашему основному правилу: все факты должны быть перепроверены, даже если вам кажется, что они верны на 100%
Поэтому мы хотим, чтобы все, кто используют произведенный нами контент, даже такой мировой лидер, как Amazon, передавали его своим клиентам ответственно и без малейших искажений.
Также мы считаем, что случай с Алексой весьма показателен и полностью соответствует нашему основному правилу: все факты должны быть перепроверены, даже если вам кажется, что они верны на 100%
— Моррис.
Доверяй, но проверяй!
Работая с ИИ-помощниками, например, с ChatGPT от OpenAI или Gemini Pro от Google, следует помнить, что боты в любой момент могут дать неправильную информацию. Это связано с тем, что их обучали не на абсолютно проверенных данных, а просто прокачивали через них огромный массив информации из интернета.
Поэтому казусы случаются чуть ли не повсеместно. К примеру, в 2016 году Tay, экспериментальный чат-бот с искусственным интеллектом от Microsoft, обучался, общаясь с пользователями Twitter. Уже через 16 часов после запуска Tay начал публиковать оскорбительные, расистские и сексистские сообщения. Бот набрался их от людей. Microsoft пришлось быстро отключить его и извиниться за произошедшее.
В 2023 году во время официальной презентации нового чат-бота Google Bard была предоставлена неточная информация о телескопе Джеймса Уэбба. Бот утверждал, что этот телескоп сделал первые снимки экзопланет, хотя на самом деле первые такие снимки были сделаны задолго до его запуска. Эта ошибка в прямом эфире вызвала сомнения в надежности технологии и привела к значительному снижению стоимости акций компании Alphabet.

И таких примеров великое множество. Поэтому пока что главный алгоритм работы с ИИ: «Доверяй, но проверяй!»
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

Тайна последнего Папы: сбудется ли пророчество XII века?
Три Петра, один престол: что об этом говорят историки и сам Ватикан?...

Что 220 дней в космосе сделали с 70-летним мужчиной?
Старейший астронавт NASA возвратился на Землю....

Экстремальная «зомби-звезда» с чудовищным по силе магнитным полем стремительно мчится по галактике
И никто не знает, откуда она вообще взялась....

Историки подтвердили: Римскую империю добил… ледниковый период
Об этом рассказали камни, принесенные гренландскими ледниками в Исландию....

Невероятная история единственного человека, которому удалось проникнуть в Зону 51
Джерри Фримен не только выбрался оттуда, но и рассказал, что увидел....

Американские военные приступили к строительству орбитального авианосца
Пентагон говорит, что это исключительно ради мира. Но эксперты прогнозируют военную эскалацию в космосе....

«Двух монстров» засняли на камеру в знаменитом шотландском озере
Ученые не верят, но кого тогда видел очевидец?...

Оксфордские лорды и кубок смерти: громкий скандал в главном британском вузе
Оказывается, английские ученые почти 200 лет пили вино и шоколад… из черепа рабыни....

Китай испытал новейшую водородную, но не ядерную бомбу
Кто-то говорит, что это инновация, а кто-то, что такое уже было в СССР....

Бетон в туннелях для автотранспорта гниёт удивительно быстро
Казалось бы прочный материал гложут микробы....

Исследование показало, отчего погиб древнеримский гладиатор в Британии
О, это была очень мучительная и страшная смерть!...

Шимпанзе устраивают пьяные вечеринки
Похоже, у человека и близких видов это в крови....

Археологи откопали 4500-летнюю гробницу египетского принца из Пятой династии
В ней был погребён Васер-Иф-Ре....

Оказывается, искали не там: почему сферы Дайсона прячутся в двойных системах?
Новые расчеты астрофизиков в корне меняют правила поиска инопланетной жизни....

Древний «крем для тела» спас человечество от вымирания 41 000 лет назад
Детектив каменного века: охра против ультрафиолета....

Вороны еще раз подтвердили свою гениальность
Исследование показало, что эти птицы отлично распознают… геометрические фигуры....