
Проблема «безбилетника» — почему нам не удастся контролировать развитие ИИ
22 марта 2023 года тысячи исследователей и технических лидеров, в том числе Илон Маск и соучредитель Apple Стив Возняк, опубликовали открытое письмо с призывом замедлить гонку искусственного интеллекта. В частности, в письме лабораториям рекомендовалось приостановить обучение технологиям, более сильным, чем OpenAI GPT-4, самому сложному поколению современных систем искусственного интеллекта, как минимум на шесть месяцев.
Беспокойства по поводу рисков, связанных с искусственным интеллектом появились не вчера — ученые уже несколько десятилетий предупреждают об угрозе, связанной с созданием сверхразумных машин. До сих пор нет единого мнения о вероятности создания автономных систем ИИ, которые не уступают или превосходят человека в большинстве экономически ценных задач. Однако ясно, что современные системы ИИ уже сейчас создают ряд проблем, от нарушений авторского права и дезинформации до злоупотребления технологией для списывания среди студентов.

И хотя опубликованное письмо призывает промышленность и политиков к сотрудничеству, в настоящее время не существует механизма для обеспечения такой паузы. Если мы обратимся к философии технологической этики, то заметим, что ситуация сложившаяся вокруг ИИ иллюстрируют «проблему безбилетника».
Безбилетник — обычное следствие того, что исследователи называют «проблемами коллективных действий». Наглядно мы можем это в ситуации, где как группа, все выиграют от определенного действия, но как отдельные лица каждый член выиграет, если не будет этого делать.
Такие проблемы чаще всего связаны с общественными благами. Например, предположим, что жители города имеют коллективный интерес в финансировании системы метро, что потребует от каждого из них уплаты небольшой суммы в виде налогов или платы за проезд. Все выиграют, но в интересах каждого сэкономить деньги и не платить свою справедливую долю. В конце концов, они все равно смогут пользоваться метро, если большинство людей заплатят.
Здесь и возникает проблема: некоторые участники не будут вносить свою долю, но все равно получат «бесплатную поездку» — буквально, в случае с метро. Однако, если каждый не будет платить, никто не выиграет.
Как и в примере с метро, искусственный интеллект является общественным достоянием, учитывая его способность выполнять задачи гораздо эффективнее, чем люди-операторы: от диагностики пациентов путем анализа медицинских данных до выполнения задач в военных условиях или повышения безопасности горных работ.
Но как его преимущества, так и опасности затронут всех, даже тех, кто лично не использует ИИ. Чтобы снизить риски, связанные с искусственным интеллектом, все заинтересованы в том, чтобы отраслевые исследования проводились осторожно, безопасно, с должным контролем и прозрачностью. Например, дезинформация и фейковые новости уже создают проблему, но ИИ может ее усугубить, распространяя «фейковые новости» быстрее и эффективнее, чем люди.

Однако даже если некоторые технологические компании добровольно прекратят свои эксперименты, другие корпорации будут иметь денежный интерес в продолжении собственных исследований ИИ, что позволит им выйти вперёд в гонке ИИ-вооружений. Более того, добровольная приостановка экспериментов с ИИ позволила бы другим компаниям получить бесплатную поездку, в конечном итоге пожиная плоды более безопасной и прозрачной разработки ИИ вместе с остальным обществом.
— Сэм Альтман, генеральный директор OpenAI.
В письме, опубликованном 5 апреля 2023 года, OpenAI заявила, что компания считает, что мощные системы искусственного интеллекта нуждаются в определённой степени контроля для обеспечения тщательной оценки безопасности, и что она будет активно взаимодействовать с правительствами в вопросе регулирования процесса разработки. Тем не менее OpenAI продолжает постепенное развертывание GPT-4, и остальная часть отрасли также продолжает разрабатывать и обучать передовые ИИ.
Гонка по разработке более совершенного ИИ носит международный характер. Даже если США, как крупнейший игрок, введет федеральное регулирование исследований и разработок в области искусственного интеллекта, Китай, Япония, и многие другие страны смогут продолжить развивать свои собственные внутренние программы искусственного интеллекта.
Для эффективного регулирования и обеспечения соблюдения регламента развития ИИ потребуются глобальные коллективные действия и сотрудничество. В США и других крупных странах, вероятно, закон будет предполагать федеральный надзор за исследованиями и возможности налагать штрафы или закрывать эксперименты с искусственным интеллектом, не соответствующие требованиям. Такие меры необходимы, чтобы обеспечить ответственный подход к развитию — будь то через регулирующие надзорные советы, защиту осведомителей или, в крайних случаях, блокировку исследований и лабораторий.
Возможно, это беспрецедентно строгие меры, однако в отсутствие контроля, в том числе и на международном уровне, появятся безбилетники, а это значит, что угроза ИИ не уменьшится в ближайшее время.
Беспокойства по поводу рисков, связанных с искусственным интеллектом появились не вчера — ученые уже несколько десятилетий предупреждают об угрозе, связанной с созданием сверхразумных машин. До сих пор нет единого мнения о вероятности создания автономных систем ИИ, которые не уступают или превосходят человека в большинстве экономически ценных задач. Однако ясно, что современные системы ИИ уже сейчас создают ряд проблем, от нарушений авторского права и дезинформации до злоупотребления технологией для списывания среди студентов.

И хотя опубликованное письмо призывает промышленность и политиков к сотрудничеству, в настоящее время не существует механизма для обеспечения такой паузы. Если мы обратимся к философии технологической этики, то заметим, что ситуация сложившаяся вокруг ИИ иллюстрируют «проблему безбилетника».
Проблема безбилетника
Безбилетник — обычное следствие того, что исследователи называют «проблемами коллективных действий». Наглядно мы можем это в ситуации, где как группа, все выиграют от определенного действия, но как отдельные лица каждый член выиграет, если не будет этого делать.
Такие проблемы чаще всего связаны с общественными благами. Например, предположим, что жители города имеют коллективный интерес в финансировании системы метро, что потребует от каждого из них уплаты небольшой суммы в виде налогов или платы за проезд. Все выиграют, но в интересах каждого сэкономить деньги и не платить свою справедливую долю. В конце концов, они все равно смогут пользоваться метро, если большинство людей заплатят.
Здесь и возникает проблема: некоторые участники не будут вносить свою долю, но все равно получат «бесплатную поездку» — буквально, в случае с метро. Однако, если каждый не будет платить, никто не выиграет.
В чем необходимость остановки?
Как и в примере с метро, искусственный интеллект является общественным достоянием, учитывая его способность выполнять задачи гораздо эффективнее, чем люди-операторы: от диагностики пациентов путем анализа медицинских данных до выполнения задач в военных условиях или повышения безопасности горных работ.
Но как его преимущества, так и опасности затронут всех, даже тех, кто лично не использует ИИ. Чтобы снизить риски, связанные с искусственным интеллектом, все заинтересованы в том, чтобы отраслевые исследования проводились осторожно, безопасно, с должным контролем и прозрачностью. Например, дезинформация и фейковые новости уже создают проблему, но ИИ может ее усугубить, распространяя «фейковые новости» быстрее и эффективнее, чем люди.

Однако даже если некоторые технологические компании добровольно прекратят свои эксперименты, другие корпорации будут иметь денежный интерес в продолжении собственных исследований ИИ, что позволит им выйти вперёд в гонке ИИ-вооружений. Более того, добровольная приостановка экспериментов с ИИ позволила бы другим компаниям получить бесплатную поездку, в конечном итоге пожиная плоды более безопасной и прозрачной разработки ИИ вместе с остальным обществом.
ИИ действительно может представлять определенную угрозу, и уже сейчас существуют некоторые проблемы. Мы должны быть осторожны. Я думаю, что люди должны быть роды, что мы разделяем их опасения
— Сэм Альтман, генеральный директор OpenAI.
В письме, опубликованном 5 апреля 2023 года, OpenAI заявила, что компания считает, что мощные системы искусственного интеллекта нуждаются в определённой степени контроля для обеспечения тщательной оценки безопасности, и что она будет активно взаимодействовать с правительствами в вопросе регулирования процесса разработки. Тем не менее OpenAI продолжает постепенное развертывание GPT-4, и остальная часть отрасли также продолжает разрабатывать и обучать передовые ИИ.
Глобальный вызов
Гонка по разработке более совершенного ИИ носит международный характер. Даже если США, как крупнейший игрок, введет федеральное регулирование исследований и разработок в области искусственного интеллекта, Китай, Япония, и многие другие страны смогут продолжить развивать свои собственные внутренние программы искусственного интеллекта.
Для эффективного регулирования и обеспечения соблюдения регламента развития ИИ потребуются глобальные коллективные действия и сотрудничество. В США и других крупных странах, вероятно, закон будет предполагать федеральный надзор за исследованиями и возможности налагать штрафы или закрывать эксперименты с искусственным интеллектом, не соответствующие требованиям. Такие меры необходимы, чтобы обеспечить ответственный подход к развитию — будь то через регулирующие надзорные советы, защиту осведомителей или, в крайних случаях, блокировку исследований и лабораторий.
Возможно, это беспрецедентно строгие меры, однако в отсутствие контроля, в том числе и на международном уровне, появятся безбилетники, а это значит, что угроза ИИ не уменьшится в ближайшее время.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

NASA объявило: Найдены самые убедительные доказательства существования жизни на Марсе
Ученые тем временем выясняют, как могли выглядеть древние жители Красной планеты...

Специалисты предупреждают: Через три года интернет будет скорее мертвым, чем живым
Почему к 2030 году человеческое общение в сети может стать роскошью, а не нормой?...

Ученый утверждает: у него есть доказательства, что мы живем в матрице
По словам Мелвина Вопсона, подсказки он нашел в ДНК, расширении Вселенной и фундаментальных законах физики...

Найдена самая похожая на Землю планета. Готовимся к переезду?
TRAPPIST-1e идеальная: тепло, есть вода и атмосфера. Чем же тогда недовольны астрофизики?...

16-тонный саркофаг, заполненный сокровищами, может подтвердить одну из самых таинственных и кровавых легенд древнего Китая
Какой секрет хранила эта гробница, что оставалась единственной нетронутой два тысячелетия?...

Новая операция по объединению людей и животных может подарить… вечную жизнь
Медики признаются: уже сейчас можно сделать новое тело человека. Но один орган пока не поддается науке...

Археологи нашли медведя, который… побеждал гладиаторов
Исследование показало, что пленный зверь не хотел сдаваться до самого конца...

Оказывается, решение проблемы выбоин на дорогах существует уже почти 100 лет
Почему технология, забытая полвека назад, возвращается и становится очень популярной?...

Выяснилось, что полное восстановление озонового слоя закончится глобальной катастрофой
Как так вышло, что в борьбе за экологию человечество сделало себе еще хуже?...

К 2035 году сектор Газа должен стать… самым продвинутым регионом на планете под управлением ИИ
По словам экспертов, в дерзком эксперименте за 100 млрд долларов есть только один большой вопрос: Куда выселить местное население?...