
Проблема «безбилетника» — почему нам не удастся контролировать развитие ИИ
22 марта 2023 года тысячи исследователей и технических лидеров, в том числе Илон Маск и соучредитель Apple Стив Возняк, опубликовали открытое письмо с призывом замедлить гонку искусственного интеллекта. В частности, в письме лабораториям рекомендовалось приостановить обучение технологиям, более сильным, чем OpenAI GPT-4, самому сложному поколению современных систем искусственного интеллекта, как минимум на шесть месяцев.
Беспокойства по поводу рисков, связанных с искусственным интеллектом появились не вчера — ученые уже несколько десятилетий предупреждают об угрозе, связанной с созданием сверхразумных машин. До сих пор нет единого мнения о вероятности создания автономных систем ИИ, которые не уступают или превосходят человека в большинстве экономически ценных задач. Однако ясно, что современные системы ИИ уже сейчас создают ряд проблем, от нарушений авторского права и дезинформации до злоупотребления технологией для списывания среди студентов.

И хотя опубликованное письмо призывает промышленность и политиков к сотрудничеству, в настоящее время не существует механизма для обеспечения такой паузы. Если мы обратимся к философии технологической этики, то заметим, что ситуация сложившаяся вокруг ИИ иллюстрируют «проблему безбилетника».
Безбилетник — обычное следствие того, что исследователи называют «проблемами коллективных действий». Наглядно мы можем это в ситуации, где как группа, все выиграют от определенного действия, но как отдельные лица каждый член выиграет, если не будет этого делать.
Такие проблемы чаще всего связаны с общественными благами. Например, предположим, что жители города имеют коллективный интерес в финансировании системы метро, что потребует от каждого из них уплаты небольшой суммы в виде налогов или платы за проезд. Все выиграют, но в интересах каждого сэкономить деньги и не платить свою справедливую долю. В конце концов, они все равно смогут пользоваться метро, если большинство людей заплатят.
Здесь и возникает проблема: некоторые участники не будут вносить свою долю, но все равно получат «бесплатную поездку» — буквально, в случае с метро. Однако, если каждый не будет платить, никто не выиграет.
Как и в примере с метро, искусственный интеллект является общественным достоянием, учитывая его способность выполнять задачи гораздо эффективнее, чем люди-операторы: от диагностики пациентов путем анализа медицинских данных до выполнения задач в военных условиях или повышения безопасности горных работ.
Но как его преимущества, так и опасности затронут всех, даже тех, кто лично не использует ИИ. Чтобы снизить риски, связанные с искусственным интеллектом, все заинтересованы в том, чтобы отраслевые исследования проводились осторожно, безопасно, с должным контролем и прозрачностью. Например, дезинформация и фейковые новости уже создают проблему, но ИИ может ее усугубить, распространяя «фейковые новости» быстрее и эффективнее, чем люди.

Однако даже если некоторые технологические компании добровольно прекратят свои эксперименты, другие корпорации будут иметь денежный интерес в продолжении собственных исследований ИИ, что позволит им выйти вперёд в гонке ИИ-вооружений. Более того, добровольная приостановка экспериментов с ИИ позволила бы другим компаниям получить бесплатную поездку, в конечном итоге пожиная плоды более безопасной и прозрачной разработки ИИ вместе с остальным обществом.
— Сэм Альтман, генеральный директор OpenAI.
В письме, опубликованном 5 апреля 2023 года, OpenAI заявила, что компания считает, что мощные системы искусственного интеллекта нуждаются в определённой степени контроля для обеспечения тщательной оценки безопасности, и что она будет активно взаимодействовать с правительствами в вопросе регулирования процесса разработки. Тем не менее OpenAI продолжает постепенное развертывание GPT-4, и остальная часть отрасли также продолжает разрабатывать и обучать передовые ИИ.
Гонка по разработке более совершенного ИИ носит международный характер. Даже если США, как крупнейший игрок, введет федеральное регулирование исследований и разработок в области искусственного интеллекта, Китай, Япония, и многие другие страны смогут продолжить развивать свои собственные внутренние программы искусственного интеллекта.
Для эффективного регулирования и обеспечения соблюдения регламента развития ИИ потребуются глобальные коллективные действия и сотрудничество. В США и других крупных странах, вероятно, закон будет предполагать федеральный надзор за исследованиями и возможности налагать штрафы или закрывать эксперименты с искусственным интеллектом, не соответствующие требованиям. Такие меры необходимы, чтобы обеспечить ответственный подход к развитию — будь то через регулирующие надзорные советы, защиту осведомителей или, в крайних случаях, блокировку исследований и лабораторий.
Возможно, это беспрецедентно строгие меры, однако в отсутствие контроля, в том числе и на международном уровне, появятся безбилетники, а это значит, что угроза ИИ не уменьшится в ближайшее время.
Беспокойства по поводу рисков, связанных с искусственным интеллектом появились не вчера — ученые уже несколько десятилетий предупреждают об угрозе, связанной с созданием сверхразумных машин. До сих пор нет единого мнения о вероятности создания автономных систем ИИ, которые не уступают или превосходят человека в большинстве экономически ценных задач. Однако ясно, что современные системы ИИ уже сейчас создают ряд проблем, от нарушений авторского права и дезинформации до злоупотребления технологией для списывания среди студентов.

И хотя опубликованное письмо призывает промышленность и политиков к сотрудничеству, в настоящее время не существует механизма для обеспечения такой паузы. Если мы обратимся к философии технологической этики, то заметим, что ситуация сложившаяся вокруг ИИ иллюстрируют «проблему безбилетника».
Проблема безбилетника
Безбилетник — обычное следствие того, что исследователи называют «проблемами коллективных действий». Наглядно мы можем это в ситуации, где как группа, все выиграют от определенного действия, но как отдельные лица каждый член выиграет, если не будет этого делать.
Такие проблемы чаще всего связаны с общественными благами. Например, предположим, что жители города имеют коллективный интерес в финансировании системы метро, что потребует от каждого из них уплаты небольшой суммы в виде налогов или платы за проезд. Все выиграют, но в интересах каждого сэкономить деньги и не платить свою справедливую долю. В конце концов, они все равно смогут пользоваться метро, если большинство людей заплатят.
Здесь и возникает проблема: некоторые участники не будут вносить свою долю, но все равно получат «бесплатную поездку» — буквально, в случае с метро. Однако, если каждый не будет платить, никто не выиграет.
В чем необходимость остановки?
Как и в примере с метро, искусственный интеллект является общественным достоянием, учитывая его способность выполнять задачи гораздо эффективнее, чем люди-операторы: от диагностики пациентов путем анализа медицинских данных до выполнения задач в военных условиях или повышения безопасности горных работ.
Но как его преимущества, так и опасности затронут всех, даже тех, кто лично не использует ИИ. Чтобы снизить риски, связанные с искусственным интеллектом, все заинтересованы в том, чтобы отраслевые исследования проводились осторожно, безопасно, с должным контролем и прозрачностью. Например, дезинформация и фейковые новости уже создают проблему, но ИИ может ее усугубить, распространяя «фейковые новости» быстрее и эффективнее, чем люди.

Однако даже если некоторые технологические компании добровольно прекратят свои эксперименты, другие корпорации будут иметь денежный интерес в продолжении собственных исследований ИИ, что позволит им выйти вперёд в гонке ИИ-вооружений. Более того, добровольная приостановка экспериментов с ИИ позволила бы другим компаниям получить бесплатную поездку, в конечном итоге пожиная плоды более безопасной и прозрачной разработки ИИ вместе с остальным обществом.
ИИ действительно может представлять определенную угрозу, и уже сейчас существуют некоторые проблемы. Мы должны быть осторожны. Я думаю, что люди должны быть роды, что мы разделяем их опасения
— Сэм Альтман, генеральный директор OpenAI.
В письме, опубликованном 5 апреля 2023 года, OpenAI заявила, что компания считает, что мощные системы искусственного интеллекта нуждаются в определённой степени контроля для обеспечения тщательной оценки безопасности, и что она будет активно взаимодействовать с правительствами в вопросе регулирования процесса разработки. Тем не менее OpenAI продолжает постепенное развертывание GPT-4, и остальная часть отрасли также продолжает разрабатывать и обучать передовые ИИ.
Глобальный вызов
Гонка по разработке более совершенного ИИ носит международный характер. Даже если США, как крупнейший игрок, введет федеральное регулирование исследований и разработок в области искусственного интеллекта, Китай, Япония, и многие другие страны смогут продолжить развивать свои собственные внутренние программы искусственного интеллекта.
Для эффективного регулирования и обеспечения соблюдения регламента развития ИИ потребуются глобальные коллективные действия и сотрудничество. В США и других крупных странах, вероятно, закон будет предполагать федеральный надзор за исследованиями и возможности налагать штрафы или закрывать эксперименты с искусственным интеллектом, не соответствующие требованиям. Такие меры необходимы, чтобы обеспечить ответственный подход к развитию — будь то через регулирующие надзорные советы, защиту осведомителей или, в крайних случаях, блокировку исследований и лабораторий.
Возможно, это беспрецедентно строгие меры, однако в отсутствие контроля, в том числе и на международном уровне, появятся безбилетники, а это значит, что угроза ИИ не уменьшится в ближайшее время.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

Выяснилось, что суша вокруг Аральского моря... стремительно поднимается
И ученые сумели разгадать эту удивительную загадку природы....

В каменных гробницах древней Ирландии похоронены вовсе не те, о ком думали ученые
Генетический анализ переписывает историю неолита....

Еще раз о ядерной войне на Марсе
Гипотетический конфликт на Красной планете не дает покоя некоторым ученым....

Ужасное наводнение создало Средиземное море всего за несколько месяцев
Потоп мчался со скоростью 115 километров в час....

Застукали: антарктического гигантского кальмара впервые запечатлели в естественной среде
Прошёл век после открытия вида....

Властелины огня: как древние люди поддерживали пламя в самые холодные времена
Основным топливом была древесина ели....

Термоядерный двигатель доставит людей до Марса всего за три месяца
Новая эра космических исследований вот-вот начнется?...

А фиолетовый-то, говорят… ненастоящий!
Ученые доказали, что этот цвет — иллюзия, существующая лишь у нас в голове....

Оказывается, римляне периодически врали о своих победах в исторических хрониках
Недавно археологи обнаружили в Судане очередное яркое тому подтверждение....

Бетон в туннелях для автотранспорта гниёт удивительно быстро
Казалось бы прочный материал гложут микробы....

Ученые заставили человеческий глаз видеть совершенно новый цвет
Он называется оло, и его практически не описать словами....

Новое исследование показало: мягкие игрушки — самые опасные вещи в доме
Микробов в этих предметах оказалось вдвое больше, чем на сиденье унитаза....

Ученые доказали: вода на Земле не из космоса, а своя собственная
Она зародилась «автоматически». И это в корне меняет теорию жизни во Вселенной....

Зачем археологи измерили и сравнили размеры 50 000 древних домов
Общественное расслоение нельзя считать неизбежным....

Что рассказал древнегреческий гимнасий на Сицилии
Сохраняли язык при римском владычестве....

Боевой топор, рыболовный гарпун, жертва водным духам
Шведские ученые расшифровали детективную историю 7500-летнего артефакта....