
Когда ИИ подрались: Чат-боты Microsoft и Google сбиваются с пути истины
Недавно представленные чат-боты на базе искусственного интеллекта от крупных компаний, таких как Microsoft и Google, столкнулись с новым вызовом. Эти новейшие системы, призванные упростить жизнь пользователям, начинают совершать ошибки и предоставлять генерированные новости о друг друге, забивая информационное пространство фальшивыми данными.
Первый инцидент произошёл, когда пользователь попробовал узнать у чат-бота Microsoft Bing, закрылся ли чат-бот Google Bard. В ответ Bing сказал "да", основывая свое заключение на статье, обсуждающей комментарий в твиттере, в котором затронут вопрос закрытия Bard.
Изначально сам Bard ответил, что он уже закрыт, опираясь на шутливый комментарий от пользователя сервиса Hacker News. Ситуация только усугубилась, когда на основе этого комментария кто-то использовал ChatGPT для составления фейковой новости о закрытии чат-бота. Впоследствии чат-бот Microsoft Bing исправился, что свидетельствует, что ИИ имеет потенциал для быстрой корректировки информации.
Однако эта запутанная история ставит под сомнение надежность языковых моделей ИИ. Если чат-боты не могут разобраться в ситуации на основе проверенных источников или правильно воспринимать информацию о себе и своих способностях, можно ли им полностью доверять? Ведь даже один необдуманный шутливый комментарий на Hacker News спровоцировал неприятную ситуацию.
Это кажется забавной историей, но такие случаи могут иметь серьёзные последствия в будущем. Открытие свободного доступа к языковым моделям ИИ может привести к распространению дезинформации, информационных провокаций и общему недоверию к технологии.
Первый инцидент произошёл, когда пользователь попробовал узнать у чат-бота Microsoft Bing, закрылся ли чат-бот Google Bard. В ответ Bing сказал "да", основывая свое заключение на статье, обсуждающей комментарий в твиттере, в котором затронут вопрос закрытия Bard.
Изначально сам Bard ответил, что он уже закрыт, опираясь на шутливый комментарий от пользователя сервиса Hacker News. Ситуация только усугубилась, когда на основе этого комментария кто-то использовал ChatGPT для составления фейковой новости о закрытии чат-бота. Впоследствии чат-бот Microsoft Bing исправился, что свидетельствует, что ИИ имеет потенциал для быстрой корректировки информации.
Однако эта запутанная история ставит под сомнение надежность языковых моделей ИИ. Если чат-боты не могут разобраться в ситуации на основе проверенных источников или правильно воспринимать информацию о себе и своих способностях, можно ли им полностью доверять? Ведь даже один необдуманный шутливый комментарий на Hacker News спровоцировал неприятную ситуацию.
Это кажется забавной историей, но такие случаи могут иметь серьёзные последствия в будущем. Открытие свободного доступа к языковым моделям ИИ может привести к распространению дезинформации, информационных провокаций и общему недоверию к технологии.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

32 удивительных подарка за последние 20 лет: ученые пытаются понять, за что косатки «балуют» людей
Природная доброта? Любопытство? Желание выйти на контакт?...

Найдено идеальное место для жизни на Марсе
По словам ученых, оно похоже… на нашу Сибирь....

Уникальная находка в Нидерландах: археологи обнаружили римский лагерь далеко за пределами Империи
Как лидар и искусственный интеллект нашли объект-«невидимку» II века....

Ученые и режиссеры все время обманывали нас насчет динозавров
Оказалось, древние ящеры бегали в четыре раза медленнее, чем считалось....

«Вертолетная» конструкция да Винчи может сделать беспилотники тише, быстрее и даже дешевле
Ученые поражены, насколько разработка Леонардо опередила время....

Ученые хотят создать хранилище микробов, чтобы те… не вымерли
Звучит кошмарно, но на самом деле от этого зависит судьба всего человечества....

Историки задались вопросом, как же пах Древний Рим
Боимся, ответ вам может очень не понравиться....