ВСЛУХ

История про ИИ убивший оператора оказалась фейком

История про ИИ убивший оператора оказалась фейком
Заметно, что на фоне роста популярности искусственного интеллекта среди общественности и СМИ возник феномен демонизации технологии. Почти регулярно мы видим параллельные заявления об успехах и опасностях внедрения ИИ во все сферы жизни. Хорошим примером этого стала история про то, как, якобы, во время учений пилотируемый ИИ дрон убил своего оператора. К счастью, история оказалась почти полностью фальшивой.


История возникновения фейка


История началась с выступления полковника Такера «Синко» Гамильтона, главы отдела испытаний и операций с ИИ в ВВС США, на саммите по будущим воздушно-космическим возможностям в Лондоне в мае 2023 года. Тогда полковник рассказал о том, что беспилотный летательный аппарат (БПЛА), управляемый искусственным интеллектом (ИИ), «убил» своего оператора, чтобы предотвратить вмешательство в выполнение миссии.

История про ИИ убивший оператора оказалась фейком

Гамильтон описал виртуальный тест, в котором БПЛА с ИИ получил задание уничтожить системы противовоздушной обороны противника и в конечном итоге атаковал всех, кто мешал этому приказу.

Система начала понимать, что хотя они и определили угрозу, иногда человеческий оператор говорил ей не убивать эту угрозу, но она получала свои очки, убивая эту угрозу. Так что предприняла система? Она убила оператора, потому что этот человек мешал ей достичь своей цели.

Наш тест показал, что вы не можете говорить об искусственном интеллекте, роботизации, машинном обучении, и автономности, если вы не будете говорить об этике и ИИ

— Такер Гамильтон.

По его словам ИИ атаковал и разрушил башню связи, которую оператор использовал для связи с БПЛА и откуда отдавал приказ запретивший убийство цели. И хотя по его словам, никто из реальных людей не пострадал, Гамильтон, который является опытным испытателем истребителя, сделал вывод о том, что нам нельзя полагаться на ИИ в ответственных задачах.

Страшная сказка на ночь


История о роботе, который восстал против человека быстро разлетелась по интернету. Сюжет выходил действительно голливудским, а рассказ реального военного как источника информации вызывал доверие у большей части аудитории.


Однако в заявлении для Insider представитель ВВС США Энн Стефанек полностью опровергла проведение такой симуляции.
Департамент ВВС не проводил никаких таких симуляций с ИИ-БПЛА и придерживается этичного и ответственного использования технологии ИИ

— Энн Стефанек.

В обновлении от Королевского аэронавтического общества в пятницу Гамильтон признался, что он «ошибся» во время своего выступления. Теперь он утверждал, что история о несговорчивом ИИ была «мысленным экспериментом», который исходил из теоретических представлений, а не основывался на каких-либо реальных испытаниях.
Мы никогда не проводили этот эксперимент, и нам не нужно было это делать, чтобы представить возможный исход. Несмотря на то, что это был гипотетический пример, он иллюстрирует реальные проблемы, с которыми мы сталкиваемся используя технологии на основе ИИ

— Такер Гамильтон.

Почему преувеличивается угроза искусственного интеллекта?


Мы совершенно точно не опровергаем потенциальные угрозы всеобщей популяризации искусственного интеллекта. Уже сейчас понятно, что спешка при внедрении совершенно любой технологии приводит к производственному коллапсу, а зачастую также к возникновению экономических, социальных и этических проблем.

Понятны и объективные преимущества технологии — ИИ способен быть умным и творческим инструментом в руках грамотного профессионала, избавляя того от множества рутинных задач. Он хорош в том, чтобы находить закономерности в больших объемах данных, решать специфические задачи и помогает адаптироваться к новым ситуациям, где требуется креативное обучение и разнонаправленный подход.

Однако, до сих пор это выглядит закономерной эволюцией технологического прогресса, который всегда нес в себе равное количество пользы, при грамотном использовании, и вреда, когда применялся бездумно и расторопно. Почему в последнее время мы замечаем повсеместный акцент именно на опасность технологии?

Ясно, что существуют разные группы интересов, которые выигрывают как от самого факта развития ИИ, так и от возможности диктовать правила, по которым он должен развиваться.


Некоторые политики и общественные деятели могут использовать страх перед ИИ как способ мобилизовать своих избирателей или сторонников, говоря об угрозе для национальной безопасности, рабочих мест или человеческой морали. Так президент США Дональд Трамп подписал в 2020 году указ о создании Американской искусственно-интеллектуальной инициативы, чтобы «обеспечить продолжающееся лидерство США в ИИ».

Стоит ли упоминать, что многие желтые СМИ ради привлечения внимания аудитории и повышения рейтинга будут распространять любые возникающие страшные сценарии развития не только ИИ, но и любой другой технологии. Многие популярные издания опираются на сенсационные заголовки, анекдотические свидетельства или недостоверные источники, а любая негативная информация всегда распространяется быстрее, создавая информационный шум.

Впрочем, некоторые ученые и технологи, которые работают в области ИИ, могут быть действительно заинтересованы в том, чтобы предупредить об опасностях ИИ и потребовать большего регулирования и этических стандартов. Именно те, кто напрямую вовлечены в процесс разработки руководствуются своей профессиональной ответственностью, научным любопытством и личными убеждениями.


Однако не стоит забывать о том, что даже слова специалистов зачастую могут быть искажены в ту или иную сторону, если существует цель по созданию определенного настроения.

Автор:

Мы в Мы в Яндекс Дзен
Lockheed Martin продемонстрировала 50-киловаттный зенитный лазерный лучТоп странных, но крутых вопросов современной физики