Проблема «безбилетника» — почему нам не удастся контролировать развитие ИИ
22 марта 2023 года тысячи исследователей и технических лидеров, в том числе Илон Маск и соучредитель Apple Стив Возняк, опубликовали открытое письмо с призывом замедлить гонку искусственного интеллекта. В частности, в письме лабораториям рекомендовалось приостановить обучение технологиям, более сильным, чем OpenAI GPT-4, самому сложному поколению современных систем искусственного интеллекта, как минимум на шесть месяцев.
Беспокойства по поводу рисков, связанных с искусственным интеллектом появились не вчера — ученые уже несколько десятилетий предупреждают об угрозе, связанной с созданием сверхразумных машин. До сих пор нет единого мнения о вероятности создания автономных систем ИИ, которые не уступают или превосходят человека в большинстве экономически ценных задач. Однако ясно, что современные системы ИИ уже сейчас создают ряд проблем, от нарушений авторского права и дезинформации до злоупотребления технологией для списывания среди студентов.

И хотя опубликованное письмо призывает промышленность и политиков к сотрудничеству, в настоящее время не существует механизма для обеспечения такой паузы. Если мы обратимся к философии технологической этики, то заметим, что ситуация сложившаяся вокруг ИИ иллюстрируют «проблему безбилетника».
Безбилетник — обычное следствие того, что исследователи называют «проблемами коллективных действий». Наглядно мы можем это в ситуации, где как группа, все выиграют от определенного действия, но как отдельные лица каждый член выиграет, если не будет этого делать.
Такие проблемы чаще всего связаны с общественными благами. Например, предположим, что жители города имеют коллективный интерес в финансировании системы метро, что потребует от каждого из них уплаты небольшой суммы в виде налогов или платы за проезд. Все выиграют, но в интересах каждого сэкономить деньги и не платить свою справедливую долю. В конце концов, они все равно смогут пользоваться метро, если большинство людей заплатят.
Здесь и возникает проблема: некоторые участники не будут вносить свою долю, но все равно получат «бесплатную поездку» — буквально, в случае с метро. Однако, если каждый не будет платить, никто не выиграет.
Как и в примере с метро, искусственный интеллект является общественным достоянием, учитывая его способность выполнять задачи гораздо эффективнее, чем люди-операторы: от диагностики пациентов путем анализа медицинских данных до выполнения задач в военных условиях или повышения безопасности горных работ.
Но как его преимущества, так и опасности затронут всех, даже тех, кто лично не использует ИИ. Чтобы снизить риски, связанные с искусственным интеллектом, все заинтересованы в том, чтобы отраслевые исследования проводились осторожно, безопасно, с должным контролем и прозрачностью. Например, дезинформация и фейковые новости уже создают проблему, но ИИ может ее усугубить, распространяя «фейковые новости» быстрее и эффективнее, чем люди.

Однако даже если некоторые технологические компании добровольно прекратят свои эксперименты, другие корпорации будут иметь денежный интерес в продолжении собственных исследований ИИ, что позволит им выйти вперёд в гонке ИИ-вооружений. Более того, добровольная приостановка экспериментов с ИИ позволила бы другим компаниям получить бесплатную поездку, в конечном итоге пожиная плоды более безопасной и прозрачной разработки ИИ вместе с остальным обществом.
— Сэм Альтман, генеральный директор OpenAI.
В письме, опубликованном 5 апреля 2023 года, OpenAI заявила, что компания считает, что мощные системы искусственного интеллекта нуждаются в определённой степени контроля для обеспечения тщательной оценки безопасности, и что она будет активно взаимодействовать с правительствами в вопросе регулирования процесса разработки. Тем не менее OpenAI продолжает постепенное развертывание GPT-4, и остальная часть отрасли также продолжает разрабатывать и обучать передовые ИИ.
Гонка по разработке более совершенного ИИ носит международный характер. Даже если США, как крупнейший игрок, введет федеральное регулирование исследований и разработок в области искусственного интеллекта, Китай, Япония, и многие другие страны смогут продолжить развивать свои собственные внутренние программы искусственного интеллекта.
Для эффективного регулирования и обеспечения соблюдения регламента развития ИИ потребуются глобальные коллективные действия и сотрудничество. В США и других крупных странах, вероятно, закон будет предполагать федеральный надзор за исследованиями и возможности налагать штрафы или закрывать эксперименты с искусственным интеллектом, не соответствующие требованиям. Такие меры необходимы, чтобы обеспечить ответственный подход к развитию — будь то через регулирующие надзорные советы, защиту осведомителей или, в крайних случаях, блокировку исследований и лабораторий.
Возможно, это беспрецедентно строгие меры, однако в отсутствие контроля, в том числе и на международном уровне, появятся безбилетники, а это значит, что угроза ИИ не уменьшится в ближайшее время.
Беспокойства по поводу рисков, связанных с искусственным интеллектом появились не вчера — ученые уже несколько десятилетий предупреждают об угрозе, связанной с созданием сверхразумных машин. До сих пор нет единого мнения о вероятности создания автономных систем ИИ, которые не уступают или превосходят человека в большинстве экономически ценных задач. Однако ясно, что современные системы ИИ уже сейчас создают ряд проблем, от нарушений авторского права и дезинформации до злоупотребления технологией для списывания среди студентов.

И хотя опубликованное письмо призывает промышленность и политиков к сотрудничеству, в настоящее время не существует механизма для обеспечения такой паузы. Если мы обратимся к философии технологической этики, то заметим, что ситуация сложившаяся вокруг ИИ иллюстрируют «проблему безбилетника».
Проблема безбилетника
Безбилетник — обычное следствие того, что исследователи называют «проблемами коллективных действий». Наглядно мы можем это в ситуации, где как группа, все выиграют от определенного действия, но как отдельные лица каждый член выиграет, если не будет этого делать.
Такие проблемы чаще всего связаны с общественными благами. Например, предположим, что жители города имеют коллективный интерес в финансировании системы метро, что потребует от каждого из них уплаты небольшой суммы в виде налогов или платы за проезд. Все выиграют, но в интересах каждого сэкономить деньги и не платить свою справедливую долю. В конце концов, они все равно смогут пользоваться метро, если большинство людей заплатят.
Здесь и возникает проблема: некоторые участники не будут вносить свою долю, но все равно получат «бесплатную поездку» — буквально, в случае с метро. Однако, если каждый не будет платить, никто не выиграет.
В чем необходимость остановки?
Как и в примере с метро, искусственный интеллект является общественным достоянием, учитывая его способность выполнять задачи гораздо эффективнее, чем люди-операторы: от диагностики пациентов путем анализа медицинских данных до выполнения задач в военных условиях или повышения безопасности горных работ.
Но как его преимущества, так и опасности затронут всех, даже тех, кто лично не использует ИИ. Чтобы снизить риски, связанные с искусственным интеллектом, все заинтересованы в том, чтобы отраслевые исследования проводились осторожно, безопасно, с должным контролем и прозрачностью. Например, дезинформация и фейковые новости уже создают проблему, но ИИ может ее усугубить, распространяя «фейковые новости» быстрее и эффективнее, чем люди.

Однако даже если некоторые технологические компании добровольно прекратят свои эксперименты, другие корпорации будут иметь денежный интерес в продолжении собственных исследований ИИ, что позволит им выйти вперёд в гонке ИИ-вооружений. Более того, добровольная приостановка экспериментов с ИИ позволила бы другим компаниям получить бесплатную поездку, в конечном итоге пожиная плоды более безопасной и прозрачной разработки ИИ вместе с остальным обществом.
ИИ действительно может представлять определенную угрозу, и уже сейчас существуют некоторые проблемы. Мы должны быть осторожны. Я думаю, что люди должны быть роды, что мы разделяем их опасения
— Сэм Альтман, генеральный директор OpenAI.
В письме, опубликованном 5 апреля 2023 года, OpenAI заявила, что компания считает, что мощные системы искусственного интеллекта нуждаются в определённой степени контроля для обеспечения тщательной оценки безопасности, и что она будет активно взаимодействовать с правительствами в вопросе регулирования процесса разработки. Тем не менее OpenAI продолжает постепенное развертывание GPT-4, и остальная часть отрасли также продолжает разрабатывать и обучать передовые ИИ.
Глобальный вызов
Гонка по разработке более совершенного ИИ носит международный характер. Даже если США, как крупнейший игрок, введет федеральное регулирование исследований и разработок в области искусственного интеллекта, Китай, Япония, и многие другие страны смогут продолжить развивать свои собственные внутренние программы искусственного интеллекта.
Для эффективного регулирования и обеспечения соблюдения регламента развития ИИ потребуются глобальные коллективные действия и сотрудничество. В США и других крупных странах, вероятно, закон будет предполагать федеральный надзор за исследованиями и возможности налагать штрафы или закрывать эксперименты с искусственным интеллектом, не соответствующие требованиям. Такие меры необходимы, чтобы обеспечить ответственный подход к развитию — будь то через регулирующие надзорные советы, защиту осведомителей или, в крайних случаях, блокировку исследований и лабораторий.
Возможно, это беспрецедентно строгие меры, однако в отсутствие контроля, в том числе и на международном уровне, появятся безбилетники, а это значит, что угроза ИИ не уменьшится в ближайшее время.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Ельцин не должен был победить: кого Горбачев хотел сделать президентом России?
Почему этот план с самого начала был обречен на поражение?...
Токийская декларация-1993: какую бомбу заложил Ельцин под Россию?
Эксперты говорят: российский президент хотел переиграть Токио, но в итоге дал японцам мощный рычаг воздействия на нашу страну...
Судьба имперских субмарин решена: почему они останутся на дне Крыма навсегда?
Как военные судна вообще оказались затоплены и кто мешал их изучению долгие десятилетия?...
140 стрел и пепел раскрыли тайну гибели самого загадочного города Руси, Гнездово
Город не зачах, не был расселен из-за политических разборок, его уничтожили быстро и жестоко...
Почему у самого большого железного метеорита на Земле вообще нет кратера?
Астрофизики говорят: метеорит Хоба в Намибии нарушает все правила природы вот уже 80 000 лет...
Стало известно о 9000-летней строительной технологии, которую почти невозможно повторить даже сейчас
Древним секретом активно интересуются сразу две ведущие промышленные организации в Израиле. Интересно, почему?...
Архив ФСБ раскрыл детали одной из самых дерзких диверсионных операций ВОВ
Биография Кирилла Орловского поражает. Две Звезды Героя, друг писателя Хемингуэя, ликвидатор нацистских палачей, председатель лучшего колхоза СССР...
Удар, который едва не расколол Луну пополам: кратер в 1/10 площади планеты оставил не просто астероид
Столкновение было настолько мощным, что на поверхность выбросило породы с глубины… почти 100 километров!...
Биоинженер провел 100 дней под водой. По его словам, это прибавило ему 10 лет жизни
Почему этот эксперимент вызвал массу критики? Кто победит, официальная теория или опытная практика?...
Правительство США рассекретило почти 200 файлов о неопознанных воздушных явлениях
Американские власти и Пентагон признаются: по большинству фактов нет однозначных решений. Почему?...
Выяснилось: как британская разведка создала миф о Распутине, чтобы потом его убить
Еще одна история о том, что Англия во всем времена была главным врагом России...
Иран «ставит на счетчик» мировой интернет: сможет ли Тегеран заставить Запад платить за кабели в Ормузе?
Как оказалось, нефть была только началом. Теперь Тегеран берет за горло западную цифровую экономику...