NVIDIA сделала инструмент с открытым исходным кодом для создания более безопасных и защищенных моделей ИИ
3 708

NVIDIA сделала инструмент с открытым исходным кодом для создания более безопасных и защищенных моделей ИИ

В марте NVIDIA продемонстрировала AI Foundations, службу, которая позволяет компаниям обучать большие языковые модели (LLM) на собственных данных. Сегодня компания представляет NeMo Guardrails — инструмент, призванный помочь разработчикам обеспечить точность, корректность и безопасность своих приложений для генеративного ИИ.


NeMo Guardrails позволяет разработчикам программного обеспечения применять три различных типа ограничений для своих собственных LLM. В частности, фирмы могут устанавливать «тематические барьеры». Это не позволят приложениям затрагивать темы, для обсуждения которых они не были обучены.

Например, NVIDIA предполагает, что благодаря такому обучению чат-бот службы поддержки клиентов будет отказываться отвечать на вопрос о погоде. Компании также могут устанавливать ограничения безопасности, которые гарантируют, что их LLM получают точную информацию и подключаются только к верифицированным приложениям.

Согласно NVIDIA, NeMo Guardrails работает со всеми LLM, включая ChatGPT. Более того, компания утверждает, что разработчики почти любого уровня смогут использовать новое программное обеспечение.

Не нужно быть экспертом по машинному обучению или специалистом по данным, чтобы пользоваться NeMo Guardrails

— Nvidia.

Поскольку NeMo Guardrails имеет открытый исходный код, NVIDIA отмечает, что он также будет работать со всеми инструментами, которые уже используют корпоративные разработчики.

NVIDIA внедряет NeMo Guardrails в свой фреймворк NeMo для создания генеративных моделей ИИ. Корпоративные клиенты могут получить доступ к NeMo через программную платформу AI Enterprise. NVIDIA также предоставляет платформу через AI Foundations.

NVIDIA создала NeMo Guardrails — продукт нескольких лет исследований — и открыла его исходный код, чтобы внести вклад в развитие сообщества разработчиков и безопасности ИИ. Вместе наши усилия по созданию правил и ограничений для ИИ помогут компаниям привести свои интеллектуальные услуги в соответствие с требованиями безопасности, конфиденциальности и корректности

— Nvidia.
Наши новостные каналы

Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.

Рекомендуем для вас