Meta разрабатывает языковой бот с искусственным интеллектом, который может использовать внешние программные инструменты
Языковые модели, такие как ChatGPT, произвели революцию в области обработки естественного языка, но они по-прежнему сталкиваются с некоторыми проблемами, в таких базовых операциях как арифметика или проверка фактов в генерируемом тексте. В прошлый четверг исследователи из Meta представили Toolformer, языковую модель ИИ, которая использует внешние инструменты, такие как поисковые системы, калькуляторы и календари, не жертвуя при этом своими базовыми возможностями языкового моделирования.
Ключевой особенностью Toolformer является то, что он может использовать API (интерфейсы прикладного программирования), представленные в виде набора протоколов, которые позволяют различным приложениям взаимодействовать друг с другом, часто бесшовным и автоматизированным образом. Во время обучения исследователи предоставили Toolformer небольшой набор написанных человеком примеров, демонстрирующих использование каждого API, а затем позволили аннотировать большой набор данных языкового моделирования потенциальными вызовами API. Нейросеть справилась с задачей в режиме «самоконтроля», что означает, что она может учиться, не нуждаясь в постоянном руководстве человека.
Модель научилась взаимодействовать с каждой командой вызова API, как если бы они были любой другой формой текста. В результате, во время работы — генерации текста в ответ на ввод пользователем запроса — он может вставлять вызовы внешних приложений, когда это необходимо. Более того, Toolformer может самостоятельно «решать», какой инструмент использовать в соответствующем контексте и как именно использовать результат работы внешнего приложения.
Модели больших языков (LLM) хорошо известны тем, что не особенно хороши в арифметике. Toolformer теперь может обойти это ограничение с помощью программы-калькулятора. Или, если вам необходимо, чтобы помощник на основе LLM добавил дату в свой календарь, Toolformer мог бы справиться с этой задачей, используя ссылку API на приложение календаря.
Toolformer основан на предварительно обученной модели GPT-J с 6,7 миллиарда параметров. Эксперименты, проведенные исследователями на различных задачах с использованием инструментов показали, что Toolformer обеспечивает гораздо более высокую производительность, чем более крупная модель GPT-3, которая содержит 175 миллиардов параметров.
Исследователи не в первый раз пытаются компенсировать ограничения языковых моделей. Фактически, недавняя модель Bing Chat может выполнять поиск в Интернете самостоятельно, когда это необходимо, а некоторые другие системы уже пытались интегрироваться с браузерами, калькуляторами и поисковыми системами. Однако, по словам исследователей из Meta, большинство существующих подходов к интеграции инструментов в языковые модели основывались на большом количестве человеческих аннотаций или были ограничены конкретными настройками для конкретных задач. В отличие от этого, Toolformer будет использовать ряд инструментов в обобщенном виде, что не требует специальной подготовки с участием человека для выполнения конкретных задач.
Ключевой особенностью Toolformer является то, что он может использовать API (интерфейсы прикладного программирования), представленные в виде набора протоколов, которые позволяют различным приложениям взаимодействовать друг с другом, часто бесшовным и автоматизированным образом. Во время обучения исследователи предоставили Toolformer небольшой набор написанных человеком примеров, демонстрирующих использование каждого API, а затем позволили аннотировать большой набор данных языкового моделирования потенциальными вызовами API. Нейросеть справилась с задачей в режиме «самоконтроля», что означает, что она может учиться, не нуждаясь в постоянном руководстве человека.
Модель научилась взаимодействовать с каждой командой вызова API, как если бы они были любой другой формой текста. В результате, во время работы — генерации текста в ответ на ввод пользователем запроса — он может вставлять вызовы внешних приложений, когда это необходимо. Более того, Toolformer может самостоятельно «решать», какой инструмент использовать в соответствующем контексте и как именно использовать результат работы внешнего приложения.
Модели больших языков (LLM) хорошо известны тем, что не особенно хороши в арифметике. Toolformer теперь может обойти это ограничение с помощью программы-калькулятора. Или, если вам необходимо, чтобы помощник на основе LLM добавил дату в свой календарь, Toolformer мог бы справиться с этой задачей, используя ссылку API на приложение календаря.
Toolformer основан на предварительно обученной модели GPT-J с 6,7 миллиарда параметров. Эксперименты, проведенные исследователями на различных задачах с использованием инструментов показали, что Toolformer обеспечивает гораздо более высокую производительность, чем более крупная модель GPT-3, которая содержит 175 миллиардов параметров.
Исследователи не в первый раз пытаются компенсировать ограничения языковых моделей. Фактически, недавняя модель Bing Chat может выполнять поиск в Интернете самостоятельно, когда это необходимо, а некоторые другие системы уже пытались интегрироваться с браузерами, калькуляторами и поисковыми системами. Однако, по словам исследователей из Meta, большинство существующих подходов к интеграции инструментов в языковые модели основывались на большом количестве человеческих аннотаций или были ограничены конкретными настройками для конкретных задач. В отличие от этого, Toolformer будет использовать ряд инструментов в обобщенном виде, что не требует специальной подготовки с участием человека для выполнения конкретных задач.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Очередной миф Николая Карамзина полностью развеян российскими археологами
Оказалось, что Иван Грозный не убивал супругу своего младшего брата. Напротив, с княгиней Ульянией Углицкой случалась куда более таинственная и запутанная...
Самая запрещенная русская сказка: почему «Курочку Рябу» не любили ни цари, ни руководители СССР?
Чтобы эту историю можно было рассказывать советским детям, ее сюжет пришлось изменить самым радикальным образом. Но, может быть, это и к лучшему...
Американский «Чернобыль-80»: эта катастрофа едва не изменила всю историю США
Эксперты говорят: лишь счастливая случайность не позволила взорваться заряду в 600 (!) раз мощнее хиросимской бомбы...
Японец 26 лет ждал, пока раскроют убийство его жены. Часть 2. Расплата
Как наука отменила срок давности у преступления? И какая тайна осталась не раскрытой?...
Тайна гибели сибирского «Титаника»: почему некоторые детали катастрофы 1921 года неизвестны даже сейчас?
Поразительно, но тогда судьи единогласно оправдали капитана парохода. Так кто же тогда был виновником этого страшного происшествия?...
Гениальное ДНК-«мошенничество»: ученые раскрыли секрет рыбы, которая плевать хотела на главные законы биологии
100 000 лет успешного клонирования: амазонская моллинезия просто... копирует себя. И при этом удивительно успешно ремонтируют поврежденные гены, насмехаясь над...
Почему на Иран обрушился черный дождь и насколько он опасен?
Экологи говорят: агрессивные действия США и Израиля поставили под угрозу здоровье миллионов людей по всей планете...
Японец 26 лет ждал, пока раскроют убийство его жены
Как новейшие технологии помогли сдвинуть с места нераскрываемое дело...
Главный секрет человеческого дыхания: ученые рассказали, почему мы дышим «вахтовым методом»
Эксперты предупреждают: из-за особенности организма многие люди не смогут попасть в космос. Но решение все-таки есть...
43 000 черепков открыли тысячелетние тайны Древнего Египта
Почему глиняная библиотека Атрибиса потрясла весь археологический мир?...
Раскрыта главная тайна антарктического льда: ученые узнали, как и кем была взломана природная защита Шестого континента
Похоже, той Антарктиде, которую мы знаем, приходит конец. Впрочем, это не точно...