
Когда ИИ подрались: Чат-боты Microsoft и Google сбиваются с пути истины
Недавно представленные чат-боты на базе искусственного интеллекта от крупных компаний, таких как Microsoft и Google, столкнулись с новым вызовом. Эти новейшие системы, призванные упростить жизнь пользователям, начинают совершать ошибки и предоставлять генерированные новости о друг друге, забивая информационное пространство фальшивыми данными.
Первый инцидент произошёл, когда пользователь попробовал узнать у чат-бота Microsoft Bing, закрылся ли чат-бот Google Bard. В ответ Bing сказал "да", основывая свое заключение на статье, обсуждающей комментарий в твиттере, в котором затронут вопрос закрытия Bard.
Изначально сам Bard ответил, что он уже закрыт, опираясь на шутливый комментарий от пользователя сервиса Hacker News. Ситуация только усугубилась, когда на основе этого комментария кто-то использовал ChatGPT для составления фейковой новости о закрытии чат-бота. Впоследствии чат-бот Microsoft Bing исправился, что свидетельствует, что ИИ имеет потенциал для быстрой корректировки информации.
Однако эта запутанная история ставит под сомнение надежность языковых моделей ИИ. Если чат-боты не могут разобраться в ситуации на основе проверенных источников или правильно воспринимать информацию о себе и своих способностях, можно ли им полностью доверять? Ведь даже один необдуманный шутливый комментарий на Hacker News спровоцировал неприятную ситуацию.
Это кажется забавной историей, но такие случаи могут иметь серьёзные последствия в будущем. Открытие свободного доступа к языковым моделям ИИ может привести к распространению дезинформации, информационных провокаций и общему недоверию к технологии.
Первый инцидент произошёл, когда пользователь попробовал узнать у чат-бота Microsoft Bing, закрылся ли чат-бот Google Bard. В ответ Bing сказал "да", основывая свое заключение на статье, обсуждающей комментарий в твиттере, в котором затронут вопрос закрытия Bard.
Изначально сам Bard ответил, что он уже закрыт, опираясь на шутливый комментарий от пользователя сервиса Hacker News. Ситуация только усугубилась, когда на основе этого комментария кто-то использовал ChatGPT для составления фейковой новости о закрытии чат-бота. Впоследствии чат-бот Microsoft Bing исправился, что свидетельствует, что ИИ имеет потенциал для быстрой корректировки информации.
Однако эта запутанная история ставит под сомнение надежность языковых моделей ИИ. Если чат-боты не могут разобраться в ситуации на основе проверенных источников или правильно воспринимать информацию о себе и своих способностях, можно ли им полностью доверять? Ведь даже один необдуманный шутливый комментарий на Hacker News спровоцировал неприятную ситуацию.
Это кажется забавной историей, но такие случаи могут иметь серьёзные последствия в будущем. Открытие свободного доступа к языковым моделям ИИ может привести к распространению дезинформации, информационных провокаций и общему недоверию к технологии.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

NASA объявило: Найдены самые убедительные доказательства существования жизни на Марсе
Ученые тем временем выясняют, как могли выглядеть древние жители Красной планеты...

16-тонный саркофаг, заполненный сокровищами, может подтвердить одну из самых таинственных и кровавых легенд древнего Китая
Какой секрет хранила эта гробница, что оставалась единственной нетронутой два тысячелетия?...

Ученый утверждает: у него есть доказательства, что мы живем в матрице
По словам Мелвина Вопсона, подсказки он нашел в ДНК, расширении Вселенной и фундаментальных законах физики...

Новая операция по объединению людей и животных может подарить… вечную жизнь
Медики признаются: уже сейчас можно сделать новое тело человека. Но один орган пока не поддается науке...

Выяснилось, что полное восстановление озонового слоя закончится глобальной катастрофой
Как так вышло, что в борьбе за экологию человечество сделало себе еще хуже?...

Разгадка феномена «копченых» мумий может переписать древнейшую историю человечества
Поразительно: этот погребальный обычай, возможно, используют уже 42 000 лет подряд!...

Оказывается, решение проблемы выбоин на дорогах существует уже почти 100 лет
Почему технология, забытая полвека назад, возвращается и становится очень популярной?...

Не украли, а «присвоили»: историки выяснили, как и откуда семья Марко Поло раздобыла главный символ Венеции
Данные, полученные из «ДНК» льва святого Марка, помогли распутать детектив длиной в 700 лет...

Каждый год, как расписанию, на Марсе образуется странное облако
Долгое время ученые не могли разгадать эту аномалию, но теперь ответ наконец-то найден!...