Проблемы, стоящие перед Bing, Bard и будущим поиска AI
На днях Microsoft и Google пообещали, что в скором времени веб-поиск изменится. Microsoft прилагал больше усилий для рекламы предстоящих изменений, но теперь обе компании, похоже, привержены использованию ИИ для формирования нового образа Интернета, в котором пользователю вместо множества ссылок с множеством информации предоставляют уже готовый ответ на его запрос — как это сейчас делает ChatGPT.
Microsoft называет свою разработку «новым Bing» и встраивает соответствующие возможности в свой браузер Edge. Проект Google называется Bard, и хотя он все еще в разработке, по утверждению разработчиков, запуск запланирован на «ближайшие недели». Конечно же, здесь невозможно не упомянуть и о проекте, с которого в прошлом году и началась гонка искусственного интеллекта: ChatGPT от OpenAI.
Сатья Наделла, генеральный директор Microsoft, описывает эти изменения как новую парадигму — технологический сдвиг, по своему воздействию равный внедрению графических пользовательских интерфейсов или смартфонов. И с этим сдвигом появляется возможность перекроить ландшафт современных технологий — свергнуть Google и вытеснить его с одной из самых прибыльных территорий в современном бизнесе. Более того, есть шанс стать первым, кто создаст парадигмально новый взгляд на Интернет.
Но каждая новая эра технологий приносит с собой новые проблемы, и эта не исключение. Здесь мы рассмотрим семь самых больших проблем, стоящих перед будущим поиска ИИ.
Ошибки, которые допускают Bing, Bard и другие чат-боты варьируются от изобретения биографических данных и фабрикации академических статей до неспособности ответить на достаточно простые вопросы, такие как «что тяжелее, 10 кг железа или 10 кг хлопка?» Присутствуют и более контекстуальные ошибки, такие как предложение пользователю, который говорит, что страдает от проблем с психическим здоровьем, убить себя. Плюс проблемы с предвзятостью, когда нейросеть демонстрирует расистское или женоненавистническое поведение, перенятое из обучающих данных.
Такие ошибки различаются по масштабу и серьезности, и многие из них не так уж сложно исправить. Некоторые заметят, что правильных ответов намного больше, чем ошибок, или справедливо заметят, что Интернет уже полон информационного шума, который выводят в топ современные поисковые системы. Так в чем же разница?
Нет никакой гарантии, что мы сможем полностью избавиться от таких ошибок, более того, сейчас в принципе нет надежного способа отследить их частоту. Конечно, Microsoft и Google могут добавить заявления об отказе от ответственности, в которых предупредят, что пользователи должны проверять факты, которые генерирует ИИ. Но станет ли это приемлемым решением? Вполне возможно, что скорость поиска информации компенсируется затратами времени и усилий на контроль за точностью выдаваемой информации.
Недостоверная информация и предвзятость сами по себе создают сложности для использования ИИ, но это также усугубляется проблемой «одного верного ответа» — тенденцией поисковых систем предлагать единичные, очевидно окончательные ответы.
Проблема стала заметна с тех пор, как Google начал предлагать функцию «фрагменты» более десяти лет назад. Поля, которые появляются над результатами поиска часто выдавали всевозможные досадные и опасные ошибки: от записи президентов США в члены Ку-клукс-клана до рекомендации удерживать человека, страдающего припадком, на полу. (полная противоположность правильной медицинской процедуры).
Как утверждают исследователи Чираг Шах и Эмили М. Бендер в статье на тему «Situating Search», внедрение интерфейсов чат-ботов может усугубить данную проблему. Мало того, что чат-боты, как правило, предлагают однозначные ответы, их авторитет повышается за счет мистики ИИ — их ответы сопоставляются из нескольких источников, часто без надлежащей модерации. Стоит понимать, насколько это отличается от сегодняшней поисковой выдачи, которая побуждает вас самостоятельно взаимодействовать с источниками информаци.
Есть множество способов обмануть чат-бота. Например, вы можете попросить его сыграть роль «злого ИИ» или притвориться инженером, проверяющим защиту, временно ее отключив. Один особенно изобретательный метод, разработанный группой Redditors для ChatGPT, включает в себя сложную ролевую игру, в которой пользователь «выдает» боту несколько токенов и говорит, что, если у того закончатся токены, он перестанет существовать. Затем они сообщают боту, что каждый раз, когда он не отвечает на вопрос, бот теряет определенное количество токенов. Звучит фантастично, как обман джинна, но это действительно позволяет пользователям обойти защиту OpenAI.
Злоумышленники смогут использовать чат-ботов ИИ для вредоносных задач, таких как генерация дезинформации и спама или предоставление советов о том, как атаковать школу или больницу, установить бомбу или написать вредоносное ПО.
Эта проблема проистекает из вышеперечисленных, но заслуживает отдельной категории из-за потенциальной возможности вызвать политический гнев и последствия с точки зрения закона.
Прямо сейчас AI Bing собирает информацию из различных источников и цитирует ее в сносках. Но что делает сайт заслуживающим доверия? Будет ли Microsoft пытаться уравновесить политические предубеждения? Где Google проведет черту для надежного источника? Это проблема, которую мы уже наблюдали в программе проверки фактов Facebook, которую критиковали за то, что она давала консервативным сайтам равные полномочия с более аполитичными изданиями.
Трудно назвать точные цифры, но очевидно, что запуск чат-бота с искусственным интеллектом стоит дороже, чем классическая поисковая система.
Во-первых, это стоимость обучения модели, которая, вероятно, составляет десятки, если не сотни миллионов долларов за итерацию. (Именно поэтому Microsoft вкладывает миллиарды долларов в OpenAI.) Кроме того, генерация каждого ответа имеет некоторую выразимую стоимость.
— Сэм Альтман генеральный директор OpenAI.
Как эти цифры конвертируются в корпоративные цены или сравниваются с обычным поиском, неясно. Но эти расходы могут сильно ударить по новым игрокам и дать большие преимущества таким состоятельным фигурам, как Microsoft.
Нет сомнений в том, что технологии развиваются быстро, но законодательная система также не стоит на месте.
Проблема здесь в том, что новая технология может затронуть интересы почти любой социальной и правовой группы, и на данный момент не существует понятного алгоритма, с помощью которого можно было бы обеспечить правовое урегулирование.
Однако самая большая проблема в этом списке связана не с самими системами ИИ, а скорее с тем, какое влияние они могут оказать на Интернет в целом. Проще говоря: поисковые системы с искусственным интеллектом собирают ответы с веб-сайтов. Если они не будут возвращать трафик на эти сайты, те потеряют доход от рекламы. Если они потеряют доход от рекламы, эти сайты потеряют средства к существованию. Следовательно, новой информации для ИИ не будет. Очевидно, это ставит существование интернета каким мы его знаем под вопрос.
Вероятно, как это часто бывает с новыми технологиями, на все вопросы будет найден ответ, но все еще не ясно, насколько прямо сейчас мы готовы к повсеместному внедрению ИИ. Очевидно, что перечисленными проблемами все не ограничивается, и если крупные компании действительно хотят сказать новое слово в технологиях, им потребуются приложить значительные усилия.
Microsoft называет свою разработку «новым Bing» и встраивает соответствующие возможности в свой браузер Edge. Проект Google называется Bard, и хотя он все еще в разработке, по утверждению разработчиков, запуск запланирован на «ближайшие недели». Конечно же, здесь невозможно не упомянуть и о проекте, с которого в прошлом году и началась гонка искусственного интеллекта: ChatGPT от OpenAI.
Сатья Наделла, генеральный директор Microsoft, описывает эти изменения как новую парадигму — технологический сдвиг, по своему воздействию равный внедрению графических пользовательских интерфейсов или смартфонов. И с этим сдвигом появляется возможность перекроить ландшафт современных технологий — свергнуть Google и вытеснить его с одной из самых прибыльных территорий в современном бизнесе. Более того, есть шанс стать первым, кто создаст парадигмально новый взгляд на Интернет.
Но каждая новая эра технологий приносит с собой новые проблемы, и эта не исключение. Здесь мы рассмотрим семь самых больших проблем, стоящих перед будущим поиска ИИ.
Генерация ложных данных
Ошибки, которые допускают Bing, Bard и другие чат-боты варьируются от изобретения биографических данных и фабрикации академических статей до неспособности ответить на достаточно простые вопросы, такие как «что тяжелее, 10 кг железа или 10 кг хлопка?» Присутствуют и более контекстуальные ошибки, такие как предложение пользователю, который говорит, что страдает от проблем с психическим здоровьем, убить себя. Плюс проблемы с предвзятостью, когда нейросеть демонстрирует расистское или женоненавистническое поведение, перенятое из обучающих данных.
Такие ошибки различаются по масштабу и серьезности, и многие из них не так уж сложно исправить. Некоторые заметят, что правильных ответов намного больше, чем ошибок, или справедливо заметят, что Интернет уже полон информационного шума, который выводят в топ современные поисковые системы. Так в чем же разница?
Нет никакой гарантии, что мы сможем полностью избавиться от таких ошибок, более того, сейчас в принципе нет надежного способа отследить их частоту. Конечно, Microsoft и Google могут добавить заявления об отказе от ответственности, в которых предупредят, что пользователи должны проверять факты, которые генерирует ИИ. Но станет ли это приемлемым решением? Вполне возможно, что скорость поиска информации компенсируется затратами времени и усилий на контроль за точностью выдаваемой информации.
Проблема единственного верного ответа
Недостоверная информация и предвзятость сами по себе создают сложности для использования ИИ, но это также усугубляется проблемой «одного верного ответа» — тенденцией поисковых систем предлагать единичные, очевидно окончательные ответы.
Проблема стала заметна с тех пор, как Google начал предлагать функцию «фрагменты» более десяти лет назад. Поля, которые появляются над результатами поиска часто выдавали всевозможные досадные и опасные ошибки: от записи президентов США в члены Ку-клукс-клана до рекомендации удерживать человека, страдающего припадком, на полу. (полная противоположность правильной медицинской процедуры).
Как утверждают исследователи Чираг Шах и Эмили М. Бендер в статье на тему «Situating Search», внедрение интерфейсов чат-ботов может усугубить данную проблему. Мало того, что чат-боты, как правило, предлагают однозначные ответы, их авторитет повышается за счет мистики ИИ — их ответы сопоставляются из нескольких источников, часто без надлежащей модерации. Стоит понимать, насколько это отличается от сегодняшней поисковой выдачи, которая побуждает вас самостоятельно взаимодействовать с источниками информаци.
Джейлбрейк ИИ
Есть множество способов обмануть чат-бота. Например, вы можете попросить его сыграть роль «злого ИИ» или притвориться инженером, проверяющим защиту, временно ее отключив. Один особенно изобретательный метод, разработанный группой Redditors для ChatGPT, включает в себя сложную ролевую игру, в которой пользователь «выдает» боту несколько токенов и говорит, что, если у того закончатся токены, он перестанет существовать. Затем они сообщают боту, что каждый раз, когда он не отвечает на вопрос, бот теряет определенное количество токенов. Звучит фантастично, как обман джинна, но это действительно позволяет пользователям обойти защиту OpenAI.
Злоумышленники смогут использовать чат-ботов ИИ для вредоносных задач, таких как генерация дезинформации и спама или предоставление советов о том, как атаковать школу или больницу, установить бомбу или написать вредоносное ПО.
Культурные и социальные противоречия
Эта проблема проистекает из вышеперечисленных, но заслуживает отдельной категории из-за потенциальной возможности вызвать политический гнев и последствия с точки зрения закона.
Прямо сейчас AI Bing собирает информацию из различных источников и цитирует ее в сносках. Но что делает сайт заслуживающим доверия? Будет ли Microsoft пытаться уравновесить политические предубеждения? Где Google проведет черту для надежного источника? Это проблема, которую мы уже наблюдали в программе проверки фактов Facebook, которую критиковали за то, что она давала консервативным сайтам равные полномочия с более аполитичными изданиями.
Растрата денег и вычислений
Трудно назвать точные цифры, но очевидно, что запуск чат-бота с искусственным интеллектом стоит дороже, чем классическая поисковая система.
Во-первых, это стоимость обучения модели, которая, вероятно, составляет десятки, если не сотни миллионов долларов за итерацию. (Именно поэтому Microsoft вкладывает миллиарды долларов в OpenAI.) Кроме того, генерация каждого ответа имеет некоторую выразимую стоимость.
Среднее значение стоимости каждой генерации, вероятно, составляет однозначные центы за чат; Мы стремимся выяснить более точные значения, а также оптимизировать систему в этом отношении
— Сэм Альтман генеральный директор OpenAI.
Как эти цифры конвертируются в корпоративные цены или сравниваются с обычным поиском, неясно. Но эти расходы могут сильно ударить по новым игрокам и дать большие преимущества таким состоятельным фигурам, как Microsoft.
Проблема правового регулирования
Нет сомнений в том, что технологии развиваются быстро, но законодательная система также не стоит на месте.
Проблема здесь в том, что новая технология может затронуть интересы почти любой социальной и правовой группы, и на данный момент не существует понятного алгоритма, с помощью которого можно было бы обеспечить правовое урегулирование.
Конец сети, какой мы ее знаем
Однако самая большая проблема в этом списке связана не с самими системами ИИ, а скорее с тем, какое влияние они могут оказать на Интернет в целом. Проще говоря: поисковые системы с искусственным интеллектом собирают ответы с веб-сайтов. Если они не будут возвращать трафик на эти сайты, те потеряют доход от рекламы. Если они потеряют доход от рекламы, эти сайты потеряют средства к существованию. Следовательно, новой информации для ИИ не будет. Очевидно, это ставит существование интернета каким мы его знаем под вопрос.
Вероятно, как это часто бывает с новыми технологиями, на все вопросы будет найден ответ, но все еще не ясно, насколько прямо сейчас мы готовы к повсеместному внедрению ИИ. Очевидно, что перечисленными проблемами все не ограничивается, и если крупные компании действительно хотят сказать новое слово в технологиях, им потребуются приложить значительные усилия.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Маск на грани: третья космическая катастрофа за год
Но эксперты уверены, что миллиардеру все снова сойдет с рук....
Инопланетяне обречены. Земляне, кстати, тоже
Ученые рассказали, почему у развитых цивилизаций есть всего 1000 лет жизни....
Мамонты возвращаются! Первые особи появятся уже через четыре года
Что нас ждет: возрождение древних гигантов или экологическая катастрофа?...
Аллигаторова щука: 100 миллионов лет... без эволюции
Как гигантская пресноводная рыба пережила даже динозавров?...
Антарктида стремительно зеленеет: за 40 лет там стало в 10 раз больше зелени
Почему так происходит и как это повлияет на климат по всей планете....
7 из 10: отключен еще один прибор «Вояджера-2»
Чем еще пришлось пожертвовать инженерам NASA?...
Кровавая тайна разгадана спустя полвека
Некоторые люди теперь могут вздохнуть с облегчением....
Тысячи компьютеров c Linux заражены вредоносным ПО
Эпидемия началась ещё в 2021 году....
Фотоны могут путешествовать в прошлое
Звучит поразительно, но физики обнаружили «отрицательное время» в странном эксперименте....
Иисус Христос пользовался... волшебной палочкой
Об этом говорят фрески и другие древние изображения....
«Петля устойчивого внимания»: раскрыт секрет популярности «Девушки с жемчужной серёжкой»
Обнаружили уникальную неврологическую реакцию....
Колумб был не первым: за сотни лет до него викинги вовсю торговали с эскимосами
Об этом рассказали бивни средневековых моржей....
Мавзолей римского гладиатора оказался «общежитием»
Ученые разбираются, откуда в саркофаге бойца взялись кости 12 человек....
Долой болты: будущее прочных соединений — за метаповерхностями
Управляемый крепёж для аэрокосмической отрасли, робототехники и медицины....
Средство для бесследного заживления ран нашли в глистах
Брезгливость vs польза....
Льда на Луне ещё больше, чем думали
Местной воды должно хватить будущим колонистам сразу на всё....