
Чат Bing на базе искусственного интеллекта приобрел три «характера»
Сотрудник Microsoft Майк Дэвидсон объявил, что компания представила три отличительных стиля личности для своего экспериментального чат-бота Bing на базе искусственного интеллекта (ИИ): творческий, сбалансированный и точный. Microsoft тестирует эту функцию с 24 февраля на ограниченном круге пользователей. Переключение между режимами даёт разные результаты, которые меняют баланс между точностью и творческой составляющей, да, той самой креативностью.
Bing Chat — это помощник с поддержкой ИИ, основанный на усовершенствованной модели большого языка (LLM), разработанной компанией OpenAI. Ключевая особенность Bing Chat — способность выполнить поиск в интернете и включать результаты в свои ответы.
Microsoft анонсировала Bing Chat 7 февраля, и вскоре враждебные запросы регулярно приводили раннюю версию Bing Chat к симуляции безумия. Так пользователи обнаружили, что бота можно убедить угрожать им. Вскоре после этого Microsoft резко сократила всплески поведения Bing Chat, установив строгие ограничения на продолжительность разговоров.
С тех пор фирма экспериментирует со способами вернуть часть дерзкой индивидуальности Bing Chat для тех, кто этого хотел, но также позволяет другим пользователям искать более точные ответы. Это привело к появлению нового интерфейса «стиль разговора» с тремя вариантами выбора.
В экспериментах с тремя стилями журналисты издания ArsTechnica заметили, что «креативный» режим выдаёт более короткие и нестандартные предложения, которые не всегда безопасны или практичны. Точный режим допускал ошибки в сторону осторожности, иногда ничего не предлагая, если не видел безопасного способа достижения результата. В среднем режиме, сбалансированном, часто выдавались самые длинные ответы с самыми подробными результатами поиска и ссылками на веб-сайты в ответах.
С большими языковыми моделями неожиданные неточности (так называемые галлюцинации) часто учащаются с увеличением «креативности», что обычно означает, что модель ИИ будет больше отклоняться от информации, которую она изучила в своём наборе данных. Исследователи ИИ часто называют это свойство «температурой», но члены команды Bing говорят, что с новыми стилями общения происходит нечто большее.
По словам сотрудника Microsoft Михаила Парахина, переключение режимов в Bing Chat меняет фундаментальные аспекты поведения бота, в том числе переключение между различными моделями ИИ, которые прошли дополнительное обучение на основе человеческих ответов на его результаты. В разных режимах также используются разные начальные подсказки, а это означает, что Microsoft заменяет определяющую личность подсказку.
Хотя Bing Chat по-прежнему доступен только тем, кто зарегистрировался в списке ожидания, Microsoft продолжает совершенствовать его и другие функции поиска Bing на базе ИИ, готовясь к более широкому распространению среди пользователей. Недавно Microsoft объявила о планах по интеграции технологии в Windows 11.
Bing Chat — это помощник с поддержкой ИИ, основанный на усовершенствованной модели большого языка (LLM), разработанной компанией OpenAI. Ключевая особенность Bing Chat — способность выполнить поиск в интернете и включать результаты в свои ответы.
Microsoft анонсировала Bing Chat 7 февраля, и вскоре враждебные запросы регулярно приводили раннюю версию Bing Chat к симуляции безумия. Так пользователи обнаружили, что бота можно убедить угрожать им. Вскоре после этого Microsoft резко сократила всплески поведения Bing Chat, установив строгие ограничения на продолжительность разговоров.
С тех пор фирма экспериментирует со способами вернуть часть дерзкой индивидуальности Bing Chat для тех, кто этого хотел, но также позволяет другим пользователям искать более точные ответы. Это привело к появлению нового интерфейса «стиль разговора» с тремя вариантами выбора.
В экспериментах с тремя стилями журналисты издания ArsTechnica заметили, что «креативный» режим выдаёт более короткие и нестандартные предложения, которые не всегда безопасны или практичны. Точный режим допускал ошибки в сторону осторожности, иногда ничего не предлагая, если не видел безопасного способа достижения результата. В среднем режиме, сбалансированном, часто выдавались самые длинные ответы с самыми подробными результатами поиска и ссылками на веб-сайты в ответах.
С большими языковыми моделями неожиданные неточности (так называемые галлюцинации) часто учащаются с увеличением «креативности», что обычно означает, что модель ИИ будет больше отклоняться от информации, которую она изучила в своём наборе данных. Исследователи ИИ часто называют это свойство «температурой», но члены команды Bing говорят, что с новыми стилями общения происходит нечто большее.
По словам сотрудника Microsoft Михаила Парахина, переключение режимов в Bing Chat меняет фундаментальные аспекты поведения бота, в том числе переключение между различными моделями ИИ, которые прошли дополнительное обучение на основе человеческих ответов на его результаты. В разных режимах также используются разные начальные подсказки, а это означает, что Microsoft заменяет определяющую личность подсказку.
Хотя Bing Chat по-прежнему доступен только тем, кто зарегистрировался в списке ожидания, Microsoft продолжает совершенствовать его и другие функции поиска Bing на базе ИИ, готовясь к более широкому распространению среди пользователей. Недавно Microsoft объявила о планах по интеграции технологии в Windows 11.
- Дмитрий Ладыгин
- lexica.art
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

Вот уже 17 лет власти Египта запрещают археологам исследовать легендарный Лабиринт
Что скрывает Египет: библиотеку Атлантиды или доказательства переписывания истории?...

Воскрешение монстра: Colossal возвращает к жизни 3,6-метровую птицу-убийцу моа!
Сможет ли 230-килограммовый гигант из Новой Зеландии выжить среди людей?...

Кости Христа находятся... в США: Тамплиеры бросают вызов Ватикану с помощью ДНК-тестов
Глава ордена: «Саркофаги с останками семьи Иисуса спрятаны от Папы. Мы везли не золото — везли Бога»....

«Богатые тоже плачут»: США открыли «новую эру энергетики» — 800 часов в год без света!
Штаты хвастались ИИ, а электросети «горят» даже от чат-ботов… Россия тем временем запускает термояд....

Антарктида включила режим самоуничтожения? Лед тает, соль растет
Данные со спутников вызвали настоящую панику среди ученых....

Пока все спорят, был ли «Титаник» непотопляемым, вот что обещали за билет в 8700 $ (≈ 220 000 сегодня)
Эксперты рассказали, почему никто не верил в катастрофу....

Такого экологи не ждали: Китай очистил у себя воздух и... подогрел всю планету
Хотели, как лучше, а получилась климатическая бомба....