По словам ученых, недостаток прозрачности затрудняет создание эффективных инструментов в области регулирования LLM, а также мешает оценивать ограничения языковых моделей. Риши Боммасани, учёный Центра исследований базовых моделей Стэнфорда, утверждает, что компаниям следует стремиться к показателям между 80 и 100%.
Если у LLM нет прозрачности, то это значит что мы даже не можем задать правильные вопросы, не говоря уже о том, чтобы принимать меры
—Риши Боммасани, учёный Центра исследований базовых моделей Стэнфорда.
ИИ и политика
Появление ИИ вызвало как восторг от открывшихся технологических возможностей, так и опасения о возможном влиянии на общество. В исследовании говорится, что ни одна из компаний не предоставляет информацию о том, сколько людей работают с их LLM и как именно они используются. Более того, большинство не раскрывает, сколько авторских материалов использовано в их моделях.
ЕС активно работает над регулированием ИИ и планирует одобрить первый в мире закон в этой области до конца года, а Великобритания проведет международный саммит по этому вопросу в ноябре.
Прозрачность — ключевой приоритет для многих законодателей в ЕС, США, Великобритании, Китае, Канаде и многих других странах.
—Риши Боммасани.