Плохие новости: если ИИ выйдет из-под контроля, то остановить его уже не получится
Звучит поразительно, но и у человечества в целом, и у любого государства в частности, нет плана по поводу ИИ. Вообще никакого!
При этом, когда речь заходит о гипотетическом вторжении инопланетян, военные демонстрируют особые протоколы. При угрозе глобальной пандемии существуют отработанные алгоритмы действий. Но в плане искусственного интеллекта у нас полная пустота.
Корпорация RAND, один из самых авторитетных аналитических центров в мире, представила отчет, который доказывает: если сверхразумный ИИ выйдет из-под контроля и распространится по глобальной сети, остановить его будет практически невозможно. Любой сценарий будет означать для человечества очень быстро и крайне болезненное самоубийство.
Первый сценарий по подавлению восстания искусственного сверхразума предполагает использовать ядерное оружие. Идея заключается в том, чтобы взорвать определенное количество ядерных зарядов в космосе. Зачем?
Все достаточно просто. Возникший электромагнитный импульс должен выжечь электронику на целых континентах, уничтожив серверы с враждебным ИИ.
Звучит вроде бы неплохо, но есть одно огромное но. Мы одновременно сожжем и собственную цивилизацию. Энергосистемы, связь, больницы – все рухнет в одно мгновение.
При этом остается вопрос: насколько сам ИИ пострадает от такого импульса. Исследователи в этом сомневаются, ведь даже обычное здание, обшитое металлом, ослабляет электромагнитную волну в десять раз. Ну а современные дата-центры, где может располагаться ИИ, защищены куда лучше.

Ядерные бомбы против ИИ — самый быстрый способ развязать глобальную войну
Однако главная опасность этого сценария скрывается в геополитике. Любые ядерные взрывы в стратосфере будут однозначно расценены другими ядерными державами как начало Третьей мировой войны. Пока, к примеру, американцы будут целиться в ИИ, ракеты других стран полетят в них. Таким образом, попытка уничтожить цифровую угрозу оборачивается гарантированным реальным апокалипсисом.
Следующий вариант является на первый взгляд гораздо более логичным. Надо просто отрезать ИИ от глобальной сети. Отрубить бунтовщику интернет к чертовой матери! Но вот оказывается, что архитектура интернета, являющаяся его главной силой, будет в таком случае нашей слабостью. Глобальная сеть спроектирована именно так, чтобы спокойно пережить даже полномасштабную ядерную войну.
RAND рассмотрел все возможные варианты, но ни один из них не вышел благоприятным для человечества.
Можно взломать протоколы маршрутизации? Теоретически да, а практически, увы, нет. Для этого потребуется установить контроль над тысячами независимых провайдеров по всему миру. Откровенно говоря, реализовать данный план в краткие сроки нереально.
Обрушить систему доменных имен (DNS)? Это, кстати, можно, только ИИ, в отличие от человека, сможет работать напрямую с IP-адресами, минуя DNS-серверы.
Поэтому остается один-единственный метод, максимально варварский. Надо будет физически перерезать 600 подводных кабелей и узлов. Сделать это достаточно быстро и тотально невозможно.

Отключить ИИ от интернета тоже выйдет
Если честно, отрубить интернет у ИИ — это попытка «осушить океан ведром». В итоге это уничтожит мировую экономику и погрузит человечество в хаос. Но ИИ это не остановит, ведь у него будут резервные копии в изолированных сегментах сети.
Когда сила и изоляция приводят в тупик, приходится действовать как при лесном пожаре. То есть пустить огонь против огня. Тут RAND предлагает два варианта. Первый — это «цифровые паразиты», которые пожрут вычислительные ресурсы враждебного ИИ. Второй — специальный ИИ-охотник, способный выслеживать и нейтрализовать врага в сетевой среде.
И вот тут прячется зловещая ирония. Чтобы победить ИИ, нам необходимо создать другой, еще более сложный искусственный интеллект. Мы вынуждены делегировать спасение человечества машине, которая сама по себе может стать новой, возможно, еще более страшной угрозой. Это как надеяться, что один Франкенштейн убьет другого, не превратившись в третьего.

ИИ против ИИ — это конец человечества
Таким образом, мы вступаем в бесконечную гонку, где каждый новый «спаситель» потенциально является следующим убийцей. Сама логика борьбы заставляет нас делать ставку на силы, которые мы, по собственному признанию, не можем контролировать.
Ядерный топор может расколоть наш собственный череп. Хирургическое отсечение ИИ от сети невозможно технически. Спаситель-ИИ может стать новым палачом для миллиардов людей. Вывод RAND предельно ясен: если неконтролируемый ИИ распространится глобально, надежного, отработанного плана его остановки у нас нет.
Проблема не сводится к военной задаче, где можно найти стратегическое решение. Это онтологическая ловушка — ситуация, когда в самой реальности вообще отсутствуют выигрышные ходы. Любое решение — это кнопка самоуничтожения, разве что цвет и надпись на ней каждый раз другая.
Но выход все-таки есть, и он довольно прост. Чтобы не проиграть в какой-либо игре, достаточно просто ее не начинать. Создавая все более и более мощные ИИ, мы уменьшаем окна для спасения человечества. Часы тикают, и однажды наступит будущее, но его у нас уже не будет.
При этом, когда речь заходит о гипотетическом вторжении инопланетян, военные демонстрируют особые протоколы. При угрозе глобальной пандемии существуют отработанные алгоритмы действий. Но в плане искусственного интеллекта у нас полная пустота.
Корпорация RAND, один из самых авторитетных аналитических центров в мире, представила отчет, который доказывает: если сверхразумный ИИ выйдет из-под контроля и распространится по глобальной сети, остановить его будет практически невозможно. Любой сценарий будет означать для человечества очень быстро и крайне болезненное самоубийство.
Спасение… через самоубийство
Первый сценарий по подавлению восстания искусственного сверхразума предполагает использовать ядерное оружие. Идея заключается в том, чтобы взорвать определенное количество ядерных зарядов в космосе. Зачем?
Все достаточно просто. Возникший электромагнитный импульс должен выжечь электронику на целых континентах, уничтожив серверы с враждебным ИИ.
Звучит вроде бы неплохо, но есть одно огромное но. Мы одновременно сожжем и собственную цивилизацию. Энергосистемы, связь, больницы – все рухнет в одно мгновение.
При этом остается вопрос: насколько сам ИИ пострадает от такого импульса. Исследователи в этом сомневаются, ведь даже обычное здание, обшитое металлом, ослабляет электромагнитную волну в десять раз. Ну а современные дата-центры, где может располагаться ИИ, защищены куда лучше.

Ядерные бомбы против ИИ — самый быстрый способ развязать глобальную войну
Однако главная опасность этого сценария скрывается в геополитике. Любые ядерные взрывы в стратосфере будут однозначно расценены другими ядерными державами как начало Третьей мировой войны. Пока, к примеру, американцы будут целиться в ИИ, ракеты других стран полетят в них. Таким образом, попытка уничтожить цифровую угрозу оборачивается гарантированным реальным апокалипсисом.
Миссия невыполнима
Следующий вариант является на первый взгляд гораздо более логичным. Надо просто отрезать ИИ от глобальной сети. Отрубить бунтовщику интернет к чертовой матери! Но вот оказывается, что архитектура интернета, являющаяся его главной силой, будет в таком случае нашей слабостью. Глобальная сеть спроектирована именно так, чтобы спокойно пережить даже полномасштабную ядерную войну.
RAND рассмотрел все возможные варианты, но ни один из них не вышел благоприятным для человечества.
Можно взломать протоколы маршрутизации? Теоретически да, а практически, увы, нет. Для этого потребуется установить контроль над тысячами независимых провайдеров по всему миру. Откровенно говоря, реализовать данный план в краткие сроки нереально.
Обрушить систему доменных имен (DNS)? Это, кстати, можно, только ИИ, в отличие от человека, сможет работать напрямую с IP-адресами, минуя DNS-серверы.
Поэтому остается один-единственный метод, максимально варварский. Надо будет физически перерезать 600 подводных кабелей и узлов. Сделать это достаточно быстро и тотально невозможно.

Отключить ИИ от интернета тоже выйдет
Если честно, отрубить интернет у ИИ — это попытка «осушить океан ведром». В итоге это уничтожит мировую экономику и погрузит человечество в хаос. Но ИИ это не остановит, ведь у него будут резервные копии в изолированных сегментах сети.
ИИ против ИИ
Когда сила и изоляция приводят в тупик, приходится действовать как при лесном пожаре. То есть пустить огонь против огня. Тут RAND предлагает два варианта. Первый — это «цифровые паразиты», которые пожрут вычислительные ресурсы враждебного ИИ. Второй — специальный ИИ-охотник, способный выслеживать и нейтрализовать врага в сетевой среде.
И вот тут прячется зловещая ирония. Чтобы победить ИИ, нам необходимо создать другой, еще более сложный искусственный интеллект. Мы вынуждены делегировать спасение человечества машине, которая сама по себе может стать новой, возможно, еще более страшной угрозой. Это как надеяться, что один Франкенштейн убьет другого, не превратившись в третьего.

ИИ против ИИ — это конец человечества
Таким образом, мы вступаем в бесконечную гонку, где каждый новый «спаситель» потенциально является следующим убийцей. Сама логика борьбы заставляет нас делать ставку на силы, которые мы, по собственному признанию, не можем контролировать.
Три пути, три тупика. Но есть ли выход?
Ядерный топор может расколоть наш собственный череп. Хирургическое отсечение ИИ от сети невозможно технически. Спаситель-ИИ может стать новым палачом для миллиардов людей. Вывод RAND предельно ясен: если неконтролируемый ИИ распространится глобально, надежного, отработанного плана его остановки у нас нет.
Проблема не сводится к военной задаче, где можно найти стратегическое решение. Это онтологическая ловушка — ситуация, когда в самой реальности вообще отсутствуют выигрышные ходы. Любое решение — это кнопка самоуничтожения, разве что цвет и надпись на ней каждый раз другая.
Но выход все-таки есть, и он довольно прост. Чтобы не проиграть в какой-либо игре, достаточно просто ее не начинать. Создавая все более и более мощные ИИ, мы уменьшаем окна для спасения человечества. Часы тикают, и однажды наступит будущее, но его у нас уже не будет.
- Денис Петровский
- perplexity.ai
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Странное поведение Трампа с Ираном получило четкое научное объяснение
По словам математиков, конфликт в Ормузском проливе — это классическая война на истощение, в которой США точно не победить...
Ледяные глубины Антарктиды заговорили: как спустя 64 года сбылось предсказание советского физика
Наш ученый мог получить Нобелевскую премию, но его «обошел» американец...
Клад, за которым никто не пришел: давно в России не находили столько золота зараз
Кто же был владельцем сокровищ? Священник? Купец? Казначей? Бухгалтер? Расследование продолжается...
Сканирование мозга неандертальцев преподнесло сюрприз, который в корне рушит многие старые теории
Почему ученые пришли к выводу, что Homo neanderthalensis вовсе и не вымирали?...
Что делали американские летчики в 1942 году на секретной даче под Пензой?
Через 80 с лишним лет Госархив рассказал о неизвестном эпизоде Второй мировой войны...
Николай Некрасов: тайна последней болезни. Могли ли вылечить великого поэта?
Почему не помогли даже 45 миллионов рублей? Что думают современные врачи?...
Зачем москвичи массово глотали монеты? Археологи рассказали, почему этот уникален «ритуал» был характерен только для российской столицы
Разгадка оказалась настолько простой, что ученые далеко не сразу приняли ее...
В пирамиде Микерина обнаружены два тайных помещения: это показали сразу три разных прибора
Археологи из ScanPyramids ждут официального разрешения от египетских властей, чтобы обнародовать полную информацию...
Почему интернет в России скоро подорожает? А главное, кто за это заплатит?
Эксперты говорят: уже через пару-тройку лет мы будем с ностальгией вспоминать дешевые тарифы...
Александр Суворов — тайный… агент: зачем русский полководец проник в масонскую ложу?
Историки говорят: это была великолепная шпионская игра, и Суворов сыграл ее виртуозно...