Плохие новости: если ИИ выйдет из-под контроля, то остановить его уже не получится
14

Плохие новости: если ИИ выйдет из-под контроля, то остановить его уже не получится

Звучит поразительно, но и у человечества в целом, и у любого государства в частности, нет плана по поводу ИИ. Вообще никакого!


При этом, когда речь заходит о гипотетическом вторжении инопланетян, военные демонстрируют особые протоколы. При угрозе глобальной пандемии существуют отработанные алгоритмы действий. Но в плане искусственного интеллекта у нас полная пустота.

Корпорация RAND, один из самых авторитетных аналитических центров в мире, представила отчет, который доказывает: если сверхразумный ИИ выйдет из-под контроля и распространится по глобальной сети, остановить его будет практически невозможно. Любой сценарий будет означать для человечества очень быстро и крайне болезненное самоубийство.

Спасение… через самоубийство


Первый сценарий по подавлению восстания искусственного сверхразума предполагает использовать ядерное оружие. Идея заключается в том, чтобы взорвать определенное количество ядерных зарядов в космосе. Зачем?

Все достаточно просто. Возникший электромагнитный импульс должен выжечь электронику на целых континентах, уничтожив серверы с враждебным ИИ.

Звучит вроде бы неплохо, но есть одно огромное но. Мы одновременно сожжем и собственную цивилизацию. Энергосистемы, связь, больницы – все рухнет в одно мгновение.

При этом остается вопрос: насколько сам ИИ пострадает от такого импульса. Исследователи в этом сомневаются, ведь даже обычное здание, обшитое металлом, ослабляет электромагнитную волну в десять раз. Ну а современные дата-центры, где может располагаться ИИ, защищены куда лучше.

Плохие новости: если ИИ выйдет из-под контроля, то остановить его уже не получится
Ядерные бомбы против ИИ — самый быстрый способ развязать глобальную войну


Однако главная опасность этого сценария скрывается в геополитике. Любые ядерные взрывы в стратосфере будут однозначно расценены другими ядерными державами как начало Третьей мировой войны. Пока, к примеру, американцы будут целиться в ИИ, ракеты других стран полетят в них. Таким образом, попытка уничтожить цифровую угрозу оборачивается гарантированным реальным апокалипсисом.

Миссия невыполнима


Следующий вариант является на первый взгляд гораздо более логичным. Надо просто отрезать ИИ от глобальной сети. Отрубить бунтовщику интернет к чертовой матери! Но вот оказывается, что архитектура интернета, являющаяся его главной силой, будет в таком случае нашей слабостью. Глобальная сеть спроектирована именно так, чтобы спокойно пережить даже полномасштабную ядерную войну.
RAND рассмотрел все возможные варианты, но ни один из них не вышел благоприятным для человечества.

Можно взломать протоколы маршрутизации? Теоретически да, а практически, увы, нет. Для этого потребуется установить контроль над тысячами независимых провайдеров по всему миру. Откровенно говоря, реализовать данный план в краткие сроки нереально.

Обрушить систему доменных имен (DNS)? Это, кстати, можно, только ИИ, в отличие от человека, сможет работать напрямую с IP-адресами, минуя DNS-серверы.

Поэтому остается один-единственный метод, максимально варварский. Надо будет физически перерезать 600 подводных кабелей и узлов. Сделать это достаточно быстро и тотально невозможно.


Отключить ИИ от интернета тоже выйдет


Если честно, отрубить интернет у ИИ — это попытка «осушить океан ведром». В итоге это уничтожит мировую экономику и погрузит человечество в хаос. Но ИИ это не остановит, ведь у него будут резервные копии в изолированных сегментах сети.

ИИ против ИИ


Когда сила и изоляция приводят в тупик, приходится действовать как при лесном пожаре. То есть пустить огонь против огня. Тут RAND предлагает два варианта. Первый — это «цифровые паразиты», которые пожрут вычислительные ресурсы враждебного ИИ. Второй — специальный ИИ-охотник, способный выслеживать и нейтрализовать врага в сетевой среде.

И вот тут прячется зловещая ирония. Чтобы победить ИИ, нам необходимо создать другой, еще более сложный искусственный интеллект. Мы вынуждены делегировать спасение человечества машине, которая сама по себе может стать новой, возможно, еще более страшной угрозой. Это как надеяться, что один Франкенштейн убьет другого, не превратившись в третьего.


ИИ против ИИ — это конец человечества


Таким образом, мы вступаем в бесконечную гонку, где каждый новый «спаситель» потенциально является следующим убийцей. Сама логика борьбы заставляет нас делать ставку на силы, которые мы, по собственному признанию, не можем контролировать.

Три пути, три тупика. Но есть ли выход?


Ядерный топор может расколоть наш собственный череп. Хирургическое отсечение ИИ от сети невозможно технически. Спаситель-ИИ может стать новым палачом для миллиардов людей. Вывод RAND предельно ясен: если неконтролируемый ИИ распространится глобально, надежного, отработанного плана его остановки у нас нет.

Проблема не сводится к военной задаче, где можно найти стратегическое решение. Это онтологическая ловушка — ситуация, когда в самой реальности вообще отсутствуют выигрышные ходы. Любое решение — это кнопка самоуничтожения, разве что цвет и надпись на ней каждый раз другая.

Но выход все-таки есть, и он довольно прост. Чтобы не проиграть в какой-либо игре, достаточно просто ее не начинать. Создавая все более и более мощные ИИ, мы уменьшаем окна для спасения человечества. Часы тикают, и однажды наступит будущее, но его у нас уже не будет.
Наши новостные каналы

Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.

Рекомендуем для вас