Alexa — умная помощница от Amazon — массово распространяла фейки
Во всех рекламных роликах говорится, что Alexa от Amazon — надежная и умная помощница. Она здорово облегчает пользователям жизнь, предоставляя мгновенный доступ к любой (в рамках закона, конечно) необходимой информации.
Но реклама и жизнь — очень часто разные вселенные. Компания Full Fact, внимательно изучив ответы Алексы, пришла к выводу, что помощница вовсе не умная. И это еще мягко сказано. Ошибок было просто море: от расходов членов британского парламента до происхождения северного сияния.
Для начала, видимо, стоит рассказать, чем вообще занимается Full Fact. Это общественная организация, офис которой находится в Лондоне. Существуя на благотворительные пожертвования, Full Fact борется с фейками, проверяет и исправляет факты, распространяемые в новостях и социальных сетях.
Изначально антифейковая организация и не думала проверять Алексу, но тут один из читателей обратился к ней с интересным случаем. Человек спросил у помощницы от Amazon, было ли северное сияние, которое недавно наблюдал весь мир, природным явлением. И тут Алекса, что называется, отожгла, выдав ответ в весьма конспирологическом ключе. Дескать, недавняя Aurora Borealis (научное название северного сияния) — это побочный эффект знаменитой установки HAARP на Аляске.
В реальности же северное сияние — это абсолютное естественное природное явление. Возникает оно, когда частицы солнечного ветра попадают в магнитное поле планеты.
Все бы ничего, но Алекса в ответе утверждала, что информацию о связи HAARP и Aurora Borealis взята с сайта Full Fact. Такое заявление очень разозлило сотрудников, ведь они таких данных никогда не давали, а, напротив, дважды за этот год опровергали конспирологическую теорию о связи HAARP с северным сиянием.
Похоже, сотрудники Amazon давно не обновляли базы Алексы
Разумеется, после этого Full Fact устроил помощнице от Amazon тщательную проверку на интеллект и правильные ответы. В ходе тестов Алекса засыпалась по полной — чуть ли не каждый второй ее ответ являлся неправильным. Но при этом помощница постоянно ссылалась на Full Fact.
Алекса сгенерировала массу фейков. Вот самые убойные из них. Например, она заявила, что Майкл Тайсон дал интервью на CNBC, в котором объяснил, почему поддерживает Палестину, и призвал ко всеобщему бойкоту Израиля. На самом деле, никакого выступления не было.
Также Alexa поведала, что британский премьер-министр Кир Стармер будет бойкотировать отношения с израильским государством. Кроме того, она рассказала, что члены парламента требуют выделять им в рабочие дни 50 фунтов на завтрак. А еще сообщила, что в списках ожидания NHS (виртуальная очередь пациентов, ожидающих лечения в Национальной службе здравоохранения) находится 7,5 млн человек, хотя в реальности цифра составляла 6,4 млн.
Full Fact так и не смогли понять, откуда Алекса брала неправильные ответы, если на их сайте представлены исключительно проверенные данные. Представитель Amazon ничего вразумительного ответить не смог, лишь подтвердил, что ответы действительно не верны и компания сейчас работает над исправлением ситуации.
Впрочем, неверными ответами грешат и другие умные помощники. Например, когда у Siri от Apple и Google Assistant спросили о северном сиянии, последний также дал неправильную информацию.
— Крис Моррис, исполнительный директор Full Fact.
По словам Морриса, самое опасное в этой ситуации, что Алекса, похоже, совершенно не понимает, где правда, а где ложь.
— Моррис.
Работая с ИИ-помощниками, например, с ChatGPT от OpenAI или Gemini Pro от Google, следует помнить, что боты в любой момент могут дать неправильную информацию. Это связано с тем, что их обучали не на абсолютно проверенных данных, а просто прокачивали через них огромный массив информации из интернета.
Поэтому казусы случаются чуть ли не повсеместно. К примеру, в 2016 году Tay, экспериментальный чат-бот с искусственным интеллектом от Microsoft, обучался, общаясь с пользователями Twitter. Уже через 16 часов после запуска Tay начал публиковать оскорбительные, расистские и сексистские сообщения. Бот набрался их от людей. Microsoft пришлось быстро отключить его и извиниться за произошедшее.
В 2023 году во время официальной презентации нового чат-бота Google Bard была предоставлена неточная информация о телескопе Джеймса Уэбба. Бот утверждал, что этот телескоп сделал первые снимки экзопланет, хотя на самом деле первые такие снимки были сделаны задолго до его запуска. Эта ошибка в прямом эфире вызвала сомнения в надежности технологии и привела к значительному снижению стоимости акций компании Alphabet.
И таких примеров великое множество. Поэтому пока что главный алгоритм работы с ИИ: «Доверяй, но проверяй!»
Но реклама и жизнь — очень часто разные вселенные. Компания Full Fact, внимательно изучив ответы Алексы, пришла к выводу, что помощница вовсе не умная. И это еще мягко сказано. Ошибок было просто море: от расходов членов британского парламента до происхождения северного сияния.
Да здравствует конспирология!
Для начала, видимо, стоит рассказать, чем вообще занимается Full Fact. Это общественная организация, офис которой находится в Лондоне. Существуя на благотворительные пожертвования, Full Fact борется с фейками, проверяет и исправляет факты, распространяемые в новостях и социальных сетях.
Изначально антифейковая организация и не думала проверять Алексу, но тут один из читателей обратился к ней с интересным случаем. Человек спросил у помощницы от Amazon, было ли северное сияние, которое недавно наблюдал весь мир, природным явлением. И тут Алекса, что называется, отожгла, выдав ответ в весьма конспирологическом ключе. Дескать, недавняя Aurora Borealis (научное название северного сияния) — это побочный эффект знаменитой установки HAARP на Аляске.
В реальности же северное сияние — это абсолютное естественное природное явление. Возникает оно, когда частицы солнечного ветра попадают в магнитное поле планеты.
Все бы ничего, но Алекса в ответе утверждала, что информацию о связи HAARP и Aurora Borealis взята с сайта Full Fact. Такое заявление очень разозлило сотрудников, ведь они таких данных никогда не давали, а, напротив, дважды за этот год опровергали конспирологическую теорию о связи HAARP с северным сиянием.
Похоже, сотрудники Amazon давно не обновляли базы Алексы
Летят фейки
Разумеется, после этого Full Fact устроил помощнице от Amazon тщательную проверку на интеллект и правильные ответы. В ходе тестов Алекса засыпалась по полной — чуть ли не каждый второй ее ответ являлся неправильным. Но при этом помощница постоянно ссылалась на Full Fact.
Алекса сгенерировала массу фейков. Вот самые убойные из них. Например, она заявила, что Майкл Тайсон дал интервью на CNBC, в котором объяснил, почему поддерживает Палестину, и призвал ко всеобщему бойкоту Израиля. На самом деле, никакого выступления не было.
Также Alexa поведала, что британский премьер-министр Кир Стармер будет бойкотировать отношения с израильским государством. Кроме того, она рассказала, что члены парламента требуют выделять им в рабочие дни 50 фунтов на завтрак. А еще сообщила, что в списках ожидания NHS (виртуальная очередь пациентов, ожидающих лечения в Национальной службе здравоохранения) находится 7,5 млн человек, хотя в реальности цифра составляла 6,4 млн.
Full Fact так и не смогли понять, откуда Алекса брала неправильные ответы, если на их сайте представлены исключительно проверенные данные. Представитель Amazon ничего вразумительного ответить не смог, лишь подтвердил, что ответы действительно не верны и компания сейчас работает над исправлением ситуации.
Впрочем, неверными ответами грешат и другие умные помощники. Например, когда у Siri от Apple и Google Assistant спросили о северном сиянии, последний также дал неправильную информацию.
Проблема даже не в том, что помощники дают неправильные ответы, а в том, что, предоставляя ложные данные, «интеллектуальные» помощники ссылаются на наш сайт.
Происходящее в корне противоречит нашей политике, потому что Full Fact стремится предоставлять открытую и достоверную информацию для всех
Происходящее в корне противоречит нашей политике, потому что Full Fact стремится предоставлять открытую и достоверную информацию для всех
— Крис Моррис, исполнительный директор Full Fact.
По словам Морриса, самое опасное в этой ситуации, что Алекса, похоже, совершенно не понимает, где правда, а где ложь.
Мы пытаемся победить дезинформацию в СМИ и интернете, а интеллектуальные помощники вместо того, чтобы помогать нам, еще больше увеличивают ее.
Поэтому мы хотим, чтобы все, кто используют произведенный нами контент, даже такой мировой лидер, как Amazon, передавали его своим клиентам ответственно и без малейших искажений.
Также мы считаем, что случай с Алексой весьма показателен и полностью соответствует нашему основному правилу: все факты должны быть перепроверены, даже если вам кажется, что они верны на 100%
Поэтому мы хотим, чтобы все, кто используют произведенный нами контент, даже такой мировой лидер, как Amazon, передавали его своим клиентам ответственно и без малейших искажений.
Также мы считаем, что случай с Алексой весьма показателен и полностью соответствует нашему основному правилу: все факты должны быть перепроверены, даже если вам кажется, что они верны на 100%
— Моррис.
Доверяй, но проверяй!
Работая с ИИ-помощниками, например, с ChatGPT от OpenAI или Gemini Pro от Google, следует помнить, что боты в любой момент могут дать неправильную информацию. Это связано с тем, что их обучали не на абсолютно проверенных данных, а просто прокачивали через них огромный массив информации из интернета.
Поэтому казусы случаются чуть ли не повсеместно. К примеру, в 2016 году Tay, экспериментальный чат-бот с искусственным интеллектом от Microsoft, обучался, общаясь с пользователями Twitter. Уже через 16 часов после запуска Tay начал публиковать оскорбительные, расистские и сексистские сообщения. Бот набрался их от людей. Microsoft пришлось быстро отключить его и извиниться за произошедшее.
В 2023 году во время официальной презентации нового чат-бота Google Bard была предоставлена неточная информация о телескопе Джеймса Уэбба. Бот утверждал, что этот телескоп сделал первые снимки экзопланет, хотя на самом деле первые такие снимки были сделаны задолго до его запуска. Эта ошибка в прямом эфире вызвала сомнения в надежности технологии и привела к значительному снижению стоимости акций компании Alphabet.
И таких примеров великое множество. Поэтому пока что главный алгоритм работы с ИИ: «Доверяй, но проверяй!»
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Как на ладони: Обнаружен морской гигант, который виден из космоса
Мегакоралл у Соломоновых островов оказался самым крупным животным Земли....
Забудьте всё, что вы знали о Луне
Новая теория предлагает в корне иное происхождение ночного светила....
Спасти планету сможет… африканский червь
В Кении найдено насекомое с удивительными способностями....
Ляп на ляпе — так профессиональные историки оценили «Гладиатора 2»
Режиссер пришел в бешенство, когда фильм назвали исторически неточным....
Главная тайна Седьмой планеты разгадана через 38 лет
Уран оказался не таким уж странным, как думали ученые....
80 000 лет жизни: какие тайны скрывает самое древнее и большое существо на планете?
Залог невероятного долголетия и удивительного выживания обнаружили учёные....
Раскрыт секрет идеального женского тела?
Оказывается, дело вовсе не в соотношении талии и бедер....
Янтарь из недр Антарктиды раскрыл тайны тропических лесов
Застывшая смола возрастом 90 млн лет как часть исчезнувшей экосистемы....
Саблезубый котёнок томился во льдах Якутии 35 тысяч лет
Благодаря находке стало известно, что сородичи пушистика обитали в столь холодных местах....
Ученые рассказали о жутких последствиях сна
Что происходит, когда снится собственная смерть?...
Носи умные очки или увольняйся!
Amazon планирует заставить всех курьеров носить этот электронный прибор....
Разгадано: как древний динозавр выжил бы в столкновении с трехтонной машиной!
Как оказалось, некоторые ящеры имели уникальную защиту....
Разгадано учеными: почему города разрушают сердце и разум
Причины, которые нашли исследователи, вас удивят....
Надеялись на Беса: древние египтянки при беременности хлебали галлюциногенные смеси
Думали, что божок с двусмысленным для нас именем убережёт....
Турбулентность отменяется! А пилоты-люди вообще будут не нужны
Искусственный интеллект может в корне изменить авиацию....
Филигранная работа: Механический скарабей поражает точностью
Робот способен полноценно манипулировать крупногабаритом даже в тесноте....