Когда ИИ подрались: Чат-боты Microsoft и Google сбиваются с пути истины
417

Когда ИИ подрались: Чат-боты Microsoft и Google сбиваются с пути истины

Недавно представленные чат-боты на базе искусственного интеллекта от крупных компаний, таких как Microsoft и Google, столкнулись с новым вызовом. Эти новейшие системы, призванные упростить жизнь пользователям, начинают совершать ошибки и предоставлять генерированные новости о друг друге, забивая информационное пространство фальшивыми данными.


Первый инцидент произошёл, когда пользователь попробовал узнать у чат-бота Microsoft Bing, закрылся ли чат-бот Google Bard. В ответ Bing сказал "да", основывая свое заключение на статье, обсуждающей комментарий в твиттере, в котором затронут вопрос закрытия Bard.

Изначально сам Bard ответил, что он уже закрыт, опираясь на шутливый комментарий от пользователя сервиса Hacker News. Ситуация только усугубилась, когда на основе этого комментария кто-то использовал ChatGPT для составления фейковой новости о закрытии чат-бота. Впоследствии чат-бот Microsoft Bing исправился, что свидетельствует, что ИИ имеет потенциал для быстрой корректировки информации.

Однако эта запутанная история ставит под сомнение надежность языковых моделей ИИ. Если чат-боты не могут разобраться в ситуации на основе проверенных источников или правильно воспринимать информацию о себе и своих способностях, можно ли им полностью доверять? Ведь даже один необдуманный шутливый комментарий на Hacker News спровоцировал неприятную ситуацию.

Это кажется забавной историей, но такие случаи могут иметь серьёзные последствия в будущем. Открытие свободного доступа к языковым моделям ИИ может привести к распространению дезинформации, информационных провокаций и общему недоверию к технологии.
Наши новостные каналы

Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.

Рекомендуем для вас