История про ИИ убивший оператора оказалась фейком
Заметно, что на фоне роста популярности искусственного интеллекта среди общественности и СМИ возник феномен демонизации технологии. Почти регулярно мы видим параллельные заявления об успехах и опасностях внедрения ИИ во все сферы жизни. Хорошим примером этого стала история про то, как, якобы, во время учений пилотируемый ИИ дрон убил своего оператора. К счастью, история оказалась почти полностью фальшивой.
История началась с выступления полковника Такера «Синко» Гамильтона, главы отдела испытаний и операций с ИИ в ВВС США, на саммите по будущим воздушно-космическим возможностям в Лондоне в мае 2023 года. Тогда полковник рассказал о том, что беспилотный летательный аппарат (БПЛА), управляемый искусственным интеллектом (ИИ), «убил» своего оператора, чтобы предотвратить вмешательство в выполнение миссии.

Гамильтон описал виртуальный тест, в котором БПЛА с ИИ получил задание уничтожить системы противовоздушной обороны противника и в конечном итоге атаковал всех, кто мешал этому приказу.
— Такер Гамильтон.
По его словам ИИ атаковал и разрушил башню связи, которую оператор использовал для связи с БПЛА и откуда отдавал приказ запретивший убийство цели. И хотя по его словам, никто из реальных людей не пострадал, Гамильтон, который является опытным испытателем истребителя, сделал вывод о том, что нам нельзя полагаться на ИИ в ответственных задачах.
История о роботе, который восстал против человека быстро разлетелась по интернету. Сюжет выходил действительно голливудским, а рассказ реального военного как источника информации вызывал доверие у большей части аудитории.

Однако в заявлении для Insider представитель ВВС США Энн Стефанек полностью опровергла проведение такой симуляции.
— Энн Стефанек.
В обновлении от Королевского аэронавтического общества в пятницу Гамильтон признался, что он «ошибся» во время своего выступления. Теперь он утверждал, что история о несговорчивом ИИ была «мысленным экспериментом», который исходил из теоретических представлений, а не основывался на каких-либо реальных испытаниях.
— Такер Гамильтон.
Мы совершенно точно не опровергаем потенциальные угрозы всеобщей популяризации искусственного интеллекта. Уже сейчас понятно, что спешка при внедрении совершенно любой технологии приводит к производственному коллапсу, а зачастую также к возникновению экономических, социальных и этических проблем.
Понятны и объективные преимущества технологии — ИИ способен быть умным и творческим инструментом в руках грамотного профессионала, избавляя того от множества рутинных задач. Он хорош в том, чтобы находить закономерности в больших объемах данных, решать специфические задачи и помогает адаптироваться к новым ситуациям, где требуется креативное обучение и разнонаправленный подход.
Однако, до сих пор это выглядит закономерной эволюцией технологического прогресса, который всегда нес в себе равное количество пользы, при грамотном использовании, и вреда, когда применялся бездумно и расторопно. Почему в последнее время мы замечаем повсеместный акцент именно на опасность технологии?
Ясно, что существуют разные группы интересов, которые выигрывают как от самого факта развития ИИ, так и от возможности диктовать правила, по которым он должен развиваться.

Некоторые политики и общественные деятели могут использовать страх перед ИИ как способ мобилизовать своих избирателей или сторонников, говоря об угрозе для национальной безопасности, рабочих мест или человеческой морали. Так президент США Дональд Трамп подписал в 2020 году указ о создании Американской искусственно-интеллектуальной инициативы, чтобы «обеспечить продолжающееся лидерство США в ИИ».
Стоит ли упоминать, что многие желтые СМИ ради привлечения внимания аудитории и повышения рейтинга будут распространять любые возникающие страшные сценарии развития не только ИИ, но и любой другой технологии. Многие популярные издания опираются на сенсационные заголовки, анекдотические свидетельства или недостоверные источники, а любая негативная информация всегда распространяется быстрее, создавая информационный шум.
Впрочем, некоторые ученые и технологи, которые работают в области ИИ, могут быть действительно заинтересованы в том, чтобы предупредить об опасностях ИИ и потребовать большего регулирования и этических стандартов. Именно те, кто напрямую вовлечены в процесс разработки руководствуются своей профессиональной ответственностью, научным любопытством и личными убеждениями.

Однако не стоит забывать о том, что даже слова специалистов зачастую могут быть искажены в ту или иную сторону, если существует цель по созданию определенного настроения.
История возникновения фейка
История началась с выступления полковника Такера «Синко» Гамильтона, главы отдела испытаний и операций с ИИ в ВВС США, на саммите по будущим воздушно-космическим возможностям в Лондоне в мае 2023 года. Тогда полковник рассказал о том, что беспилотный летательный аппарат (БПЛА), управляемый искусственным интеллектом (ИИ), «убил» своего оператора, чтобы предотвратить вмешательство в выполнение миссии.

Гамильтон описал виртуальный тест, в котором БПЛА с ИИ получил задание уничтожить системы противовоздушной обороны противника и в конечном итоге атаковал всех, кто мешал этому приказу.
Система начала понимать, что хотя они и определили угрозу, иногда человеческий оператор говорил ей не убивать эту угрозу, но она получала свои очки, убивая эту угрозу. Так что предприняла система? Она убила оператора, потому что этот человек мешал ей достичь своей цели.
Наш тест показал, что вы не можете говорить об искусственном интеллекте, роботизации, машинном обучении, и автономности, если вы не будете говорить об этике и ИИ
Наш тест показал, что вы не можете говорить об искусственном интеллекте, роботизации, машинном обучении, и автономности, если вы не будете говорить об этике и ИИ
— Такер Гамильтон.
По его словам ИИ атаковал и разрушил башню связи, которую оператор использовал для связи с БПЛА и откуда отдавал приказ запретивший убийство цели. И хотя по его словам, никто из реальных людей не пострадал, Гамильтон, который является опытным испытателем истребителя, сделал вывод о том, что нам нельзя полагаться на ИИ в ответственных задачах.
Страшная сказка на ночь
История о роботе, который восстал против человека быстро разлетелась по интернету. Сюжет выходил действительно голливудским, а рассказ реального военного как источника информации вызывал доверие у большей части аудитории.

Однако в заявлении для Insider представитель ВВС США Энн Стефанек полностью опровергла проведение такой симуляции.
Департамент ВВС не проводил никаких таких симуляций с ИИ-БПЛА и придерживается этичного и ответственного использования технологии ИИ
— Энн Стефанек.
В обновлении от Королевского аэронавтического общества в пятницу Гамильтон признался, что он «ошибся» во время своего выступления. Теперь он утверждал, что история о несговорчивом ИИ была «мысленным экспериментом», который исходил из теоретических представлений, а не основывался на каких-либо реальных испытаниях.
Мы никогда не проводили этот эксперимент, и нам не нужно было это делать, чтобы представить возможный исход. Несмотря на то, что это был гипотетический пример, он иллюстрирует реальные проблемы, с которыми мы сталкиваемся используя технологии на основе ИИ
— Такер Гамильтон.
Почему преувеличивается угроза искусственного интеллекта?
Мы совершенно точно не опровергаем потенциальные угрозы всеобщей популяризации искусственного интеллекта. Уже сейчас понятно, что спешка при внедрении совершенно любой технологии приводит к производственному коллапсу, а зачастую также к возникновению экономических, социальных и этических проблем.
Понятны и объективные преимущества технологии — ИИ способен быть умным и творческим инструментом в руках грамотного профессионала, избавляя того от множества рутинных задач. Он хорош в том, чтобы находить закономерности в больших объемах данных, решать специфические задачи и помогает адаптироваться к новым ситуациям, где требуется креативное обучение и разнонаправленный подход.
Однако, до сих пор это выглядит закономерной эволюцией технологического прогресса, который всегда нес в себе равное количество пользы, при грамотном использовании, и вреда, когда применялся бездумно и расторопно. Почему в последнее время мы замечаем повсеместный акцент именно на опасность технологии?
Ясно, что существуют разные группы интересов, которые выигрывают как от самого факта развития ИИ, так и от возможности диктовать правила, по которым он должен развиваться.

Некоторые политики и общественные деятели могут использовать страх перед ИИ как способ мобилизовать своих избирателей или сторонников, говоря об угрозе для национальной безопасности, рабочих мест или человеческой морали. Так президент США Дональд Трамп подписал в 2020 году указ о создании Американской искусственно-интеллектуальной инициативы, чтобы «обеспечить продолжающееся лидерство США в ИИ».
Стоит ли упоминать, что многие желтые СМИ ради привлечения внимания аудитории и повышения рейтинга будут распространять любые возникающие страшные сценарии развития не только ИИ, но и любой другой технологии. Многие популярные издания опираются на сенсационные заголовки, анекдотические свидетельства или недостоверные источники, а любая негативная информация всегда распространяется быстрее, создавая информационный шум.
Впрочем, некоторые ученые и технологи, которые работают в области ИИ, могут быть действительно заинтересованы в том, чтобы предупредить об опасностях ИИ и потребовать большего регулирования и этических стандартов. Именно те, кто напрямую вовлечены в процесс разработки руководствуются своей профессиональной ответственностью, научным любопытством и личными убеждениями.

Однако не стоит забывать о том, что даже слова специалистов зачастую могут быть искажены в ту или иную сторону, если существует цель по созданию определенного настроения.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Эксперты говорят: изобретение ученых из Перми решает одну из самых серьезных и опасных проблем в современной авиации
Американцы потратили на это десятки лет и миллиарды долларов, но открытие сделали в России...
Активность нечеловеческого разума вблизи ядерных объектов США, СССР и Великобритании впервые получила научные доказательства
Критики не смогли опровергнуть работу шведских ученых о странных искусственных аномалиях на орбите...
ДНК из ниоткуда: 6000-летние останки в Колумбии ни с кем совпадают по генам. Вообще.
Если у этих людей нет ни предков, ни потомков, то кто они такие?...
Египетская «Зона 51»: Почему власти полностью засекретили «четвертую пирамиду»?
С 60-х годов ХХ века на объект Завиет-эль-Эриан не попал ни один ученый. Что скрывают военные за колючей проволокой?...
Ученые наконец-то взломали астрономический код цивилизации майя
700 лет точных предсказаний, 145 солнечных затмений: гениальный способ из древности отлично работает до сих пор...
Нападение акул, считавшихся абсолютно безобидными, вызвало шок у морских биологов
Кто виноват в этой ужасной трагедии? И почему эксперты говорят, что это только начало?...
2700 дней понадобилось ученым, чтобы, наконец, раскрыть главную тайну гигантских скатов
Оказалось, что манты ныряют на 1250-метровую глубину вовсе не за едой и не спасаясь от хищников...
Ученые говорят: вся жизнь подчиняется одному секретному коду
Но почему это древнее ископаемое отказалось следовать ему?...
В ближайшие 100 лет Юпитер «выстрелит» в Землю как минимум 342 раза
Российские ученые рассчитали: ближайшее «прицеливание» состоится уже 2031 году. Что вообще нам ожидать?...
Затонувшие корабли с сокровищами у берегов Китая открывают поразительные факты о Великом морском шелковом пути
Да, это лонгрид! Но после его прочтения ваш взгляд на историю Китая изменится самым коренным образом...
«Парящие» берлоги: Как треугольные дома помогут России удержать Арктику
Кто победит? Глобальное изменение климата или новые технологии?...
Ученые из Хьюстона рассказали, почему Земля и другие планеты умудрились не сгореть в недрах молодого Солнца
Как оказалось, Солнечную систему в буквальном смысле спас Юпитер, который решительно выступил против гравитационного диктата звезды...
Эксперимент показал, что на самом деле творится под марсианскими дюнами каждую весну
Оказалось, что с наступлением тепла на Красной планете активизируются... ледяные «кроты»...