Проблема «безбилетника» — почему нам не удастся контролировать развитие ИИ
453

Проблема «безбилетника» — почему нам не удастся контролировать развитие ИИ

22 марта 2023 года тысячи исследователей и технических лидеров, в том числе Илон Маск и соучредитель Apple Стив Возняк, опубликовали открытое письмо с призывом замедлить гонку искусственного интеллекта. В частности, в письме лабораториям рекомендовалось приостановить обучение технологиям, более сильным, чем OpenAI GPT-4, самому сложному поколению современных систем искусственного интеллекта, как минимум на шесть месяцев.


Беспокойства по поводу рисков, связанных с искусственным интеллектом появились не вчера — ученые уже несколько десятилетий предупреждают об угрозе, связанной с созданием сверхразумных машин. До сих пор нет единого мнения о вероятности создания автономных систем ИИ, которые не уступают или превосходят человека в большинстве экономически ценных задач. Однако ясно, что современные системы ИИ уже сейчас создают ряд проблем, от нарушений авторского права и дезинформации до злоупотребления технологией для списывания среди студентов.

Проблема «безбилетника» — почему нам не удастся контролировать развитие ИИ

И хотя опубликованное письмо призывает промышленность и политиков к сотрудничеству, в настоящее время не существует механизма для обеспечения такой паузы. Если мы обратимся к философии технологической этики, то заметим, что ситуация сложившаяся вокруг ИИ иллюстрируют «проблему безбилетника».

Проблема безбилетника


Безбилетник — обычное следствие того, что исследователи называют «проблемами коллективных действий». Наглядно мы можем это в ситуации, где как группа, все выиграют от определенного действия, но как отдельные лица каждый член выиграет, если не будет этого делать.

Такие проблемы чаще всего связаны с общественными благами. Например, предположим, что жители города имеют коллективный интерес в финансировании системы метро, ​​что потребует от каждого из них уплаты небольшой суммы в виде налогов или платы за проезд. Все выиграют, но в интересах каждого сэкономить деньги и не платить свою справедливую долю. В конце концов, они все равно смогут пользоваться метро, если большинство людей заплатят.

Здесь и возникает проблема: некоторые участники не будут вносить свою долю, но все равно получат «бесплатную поездку» — буквально, в случае с метро. Однако, если каждый не будет платить, никто не выиграет.

В чем необходимость остановки?


Как и в примере с метро, ​​искусственный интеллект является общественным достоянием, учитывая его способность выполнять задачи гораздо эффективнее, чем люди-операторы: от диагностики пациентов путем анализа медицинских данных до выполнения задач в военных условиях или повышения безопасности горных работ.

Но как его преимущества, так и опасности затронут всех, даже тех, кто лично не использует ИИ. Чтобы снизить риски, связанные с искусственным интеллектом, все заинтересованы в том, чтобы отраслевые исследования проводились осторожно, безопасно, с должным контролем и прозрачностью. Например, дезинформация и фейковые новости уже создают проблему, но ИИ может ее усугубить, распространяя «фейковые новости» быстрее и эффективнее, чем люди.



Однако даже если некоторые технологические компании добровольно прекратят свои эксперименты, другие корпорации будут иметь денежный интерес в продолжении собственных исследований ИИ, что позволит им выйти вперёд в гонке ИИ-вооружений. Более того, добровольная приостановка экспериментов с ИИ позволила бы другим компаниям получить бесплатную поездку, в конечном итоге пожиная плоды более безопасной и прозрачной разработки ИИ вместе с остальным обществом.

ИИ действительно может представлять определенную угрозу, и уже сейчас существуют некоторые проблемы. Мы должны быть осторожны. Я думаю, что люди должны быть роды, что мы разделяем их опасения

— Сэм Альтман, генеральный директор OpenAI.

В письме, опубликованном 5 апреля 2023 года, OpenAI заявила, что компания считает, что мощные системы искусственного интеллекта нуждаются в определённой степени контроля для обеспечения тщательной оценки безопасности, и что она будет активно взаимодействовать с правительствами в вопросе регулирования процесса разработки. Тем не менее OpenAI продолжает постепенное развертывание GPT-4, и остальная часть отрасли также продолжает разрабатывать и обучать передовые ИИ.

Глобальный вызов


Гонка по разработке более совершенного ИИ носит международный характер. Даже если США, как крупнейший игрок, введет федеральное регулирование исследований и разработок в области искусственного интеллекта, Китай, Япония, и многие другие страны смогут продолжить развивать свои собственные внутренние программы искусственного интеллекта.

Для эффективного регулирования и обеспечения соблюдения регламента развития ИИ потребуются глобальные коллективные действия и сотрудничество. В США и других крупных странах, вероятно, закон будет предполагать федеральный надзор за исследованиями и возможности налагать штрафы или закрывать эксперименты с искусственным интеллектом, не соответствующие требованиям. Такие меры необходимы, чтобы обеспечить ответственный подход к развитию — будь то через регулирующие надзорные советы, защиту осведомителей или, в крайних случаях, блокировку исследований и лабораторий.

Возможно, это беспрецедентно строгие меры, однако в отсутствие контроля, в том числе и на международном уровне, появятся безбилетники, а это значит, что угроза ИИ не уменьшится в ближайшее время.
Наши новостные каналы

Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.

Рекомендуем для вас