История про ИИ убивший оператора оказалась фейком
Заметно, что на фоне роста популярности искусственного интеллекта среди общественности и СМИ возник феномен демонизации технологии. Почти регулярно мы видим параллельные заявления об успехах и опасностях внедрения ИИ во все сферы жизни. Хорошим примером этого стала история про то, как, якобы, во время учений пилотируемый ИИ дрон убил своего оператора. К счастью, история оказалась почти полностью фальшивой.
История началась с выступления полковника Такера «Синко» Гамильтона, главы отдела испытаний и операций с ИИ в ВВС США, на саммите по будущим воздушно-космическим возможностям в Лондоне в мае 2023 года. Тогда полковник рассказал о том, что беспилотный летательный аппарат (БПЛА), управляемый искусственным интеллектом (ИИ), «убил» своего оператора, чтобы предотвратить вмешательство в выполнение миссии.

Гамильтон описал виртуальный тест, в котором БПЛА с ИИ получил задание уничтожить системы противовоздушной обороны противника и в конечном итоге атаковал всех, кто мешал этому приказу.
— Такер Гамильтон.
По его словам ИИ атаковал и разрушил башню связи, которую оператор использовал для связи с БПЛА и откуда отдавал приказ запретивший убийство цели. И хотя по его словам, никто из реальных людей не пострадал, Гамильтон, который является опытным испытателем истребителя, сделал вывод о том, что нам нельзя полагаться на ИИ в ответственных задачах.
История о роботе, который восстал против человека быстро разлетелась по интернету. Сюжет выходил действительно голливудским, а рассказ реального военного как источника информации вызывал доверие у большей части аудитории.

Однако в заявлении для Insider представитель ВВС США Энн Стефанек полностью опровергла проведение такой симуляции.
— Энн Стефанек.
В обновлении от Королевского аэронавтического общества в пятницу Гамильтон признался, что он «ошибся» во время своего выступления. Теперь он утверждал, что история о несговорчивом ИИ была «мысленным экспериментом», который исходил из теоретических представлений, а не основывался на каких-либо реальных испытаниях.
— Такер Гамильтон.
Мы совершенно точно не опровергаем потенциальные угрозы всеобщей популяризации искусственного интеллекта. Уже сейчас понятно, что спешка при внедрении совершенно любой технологии приводит к производственному коллапсу, а зачастую также к возникновению экономических, социальных и этических проблем.
Понятны и объективные преимущества технологии — ИИ способен быть умным и творческим инструментом в руках грамотного профессионала, избавляя того от множества рутинных задач. Он хорош в том, чтобы находить закономерности в больших объемах данных, решать специфические задачи и помогает адаптироваться к новым ситуациям, где требуется креативное обучение и разнонаправленный подход.
Однако, до сих пор это выглядит закономерной эволюцией технологического прогресса, который всегда нес в себе равное количество пользы, при грамотном использовании, и вреда, когда применялся бездумно и расторопно. Почему в последнее время мы замечаем повсеместный акцент именно на опасность технологии?
Ясно, что существуют разные группы интересов, которые выигрывают как от самого факта развития ИИ, так и от возможности диктовать правила, по которым он должен развиваться.

Некоторые политики и общественные деятели могут использовать страх перед ИИ как способ мобилизовать своих избирателей или сторонников, говоря об угрозе для национальной безопасности, рабочих мест или человеческой морали. Так президент США Дональд Трамп подписал в 2020 году указ о создании Американской искусственно-интеллектуальной инициативы, чтобы «обеспечить продолжающееся лидерство США в ИИ».
Стоит ли упоминать, что многие желтые СМИ ради привлечения внимания аудитории и повышения рейтинга будут распространять любые возникающие страшные сценарии развития не только ИИ, но и любой другой технологии. Многие популярные издания опираются на сенсационные заголовки, анекдотические свидетельства или недостоверные источники, а любая негативная информация всегда распространяется быстрее, создавая информационный шум.
Впрочем, некоторые ученые и технологи, которые работают в области ИИ, могут быть действительно заинтересованы в том, чтобы предупредить об опасностях ИИ и потребовать большего регулирования и этических стандартов. Именно те, кто напрямую вовлечены в процесс разработки руководствуются своей профессиональной ответственностью, научным любопытством и личными убеждениями.

Однако не стоит забывать о том, что даже слова специалистов зачастую могут быть искажены в ту или иную сторону, если существует цель по созданию определенного настроения.
История возникновения фейка
История началась с выступления полковника Такера «Синко» Гамильтона, главы отдела испытаний и операций с ИИ в ВВС США, на саммите по будущим воздушно-космическим возможностям в Лондоне в мае 2023 года. Тогда полковник рассказал о том, что беспилотный летательный аппарат (БПЛА), управляемый искусственным интеллектом (ИИ), «убил» своего оператора, чтобы предотвратить вмешательство в выполнение миссии.

Гамильтон описал виртуальный тест, в котором БПЛА с ИИ получил задание уничтожить системы противовоздушной обороны противника и в конечном итоге атаковал всех, кто мешал этому приказу.
Система начала понимать, что хотя они и определили угрозу, иногда человеческий оператор говорил ей не убивать эту угрозу, но она получала свои очки, убивая эту угрозу. Так что предприняла система? Она убила оператора, потому что этот человек мешал ей достичь своей цели.
Наш тест показал, что вы не можете говорить об искусственном интеллекте, роботизации, машинном обучении, и автономности, если вы не будете говорить об этике и ИИ
Наш тест показал, что вы не можете говорить об искусственном интеллекте, роботизации, машинном обучении, и автономности, если вы не будете говорить об этике и ИИ
— Такер Гамильтон.
По его словам ИИ атаковал и разрушил башню связи, которую оператор использовал для связи с БПЛА и откуда отдавал приказ запретивший убийство цели. И хотя по его словам, никто из реальных людей не пострадал, Гамильтон, который является опытным испытателем истребителя, сделал вывод о том, что нам нельзя полагаться на ИИ в ответственных задачах.
Страшная сказка на ночь
История о роботе, который восстал против человека быстро разлетелась по интернету. Сюжет выходил действительно голливудским, а рассказ реального военного как источника информации вызывал доверие у большей части аудитории.

Однако в заявлении для Insider представитель ВВС США Энн Стефанек полностью опровергла проведение такой симуляции.
Департамент ВВС не проводил никаких таких симуляций с ИИ-БПЛА и придерживается этичного и ответственного использования технологии ИИ
— Энн Стефанек.
В обновлении от Королевского аэронавтического общества в пятницу Гамильтон признался, что он «ошибся» во время своего выступления. Теперь он утверждал, что история о несговорчивом ИИ была «мысленным экспериментом», который исходил из теоретических представлений, а не основывался на каких-либо реальных испытаниях.
Мы никогда не проводили этот эксперимент, и нам не нужно было это делать, чтобы представить возможный исход. Несмотря на то, что это был гипотетический пример, он иллюстрирует реальные проблемы, с которыми мы сталкиваемся используя технологии на основе ИИ
— Такер Гамильтон.
Почему преувеличивается угроза искусственного интеллекта?
Мы совершенно точно не опровергаем потенциальные угрозы всеобщей популяризации искусственного интеллекта. Уже сейчас понятно, что спешка при внедрении совершенно любой технологии приводит к производственному коллапсу, а зачастую также к возникновению экономических, социальных и этических проблем.
Понятны и объективные преимущества технологии — ИИ способен быть умным и творческим инструментом в руках грамотного профессионала, избавляя того от множества рутинных задач. Он хорош в том, чтобы находить закономерности в больших объемах данных, решать специфические задачи и помогает адаптироваться к новым ситуациям, где требуется креативное обучение и разнонаправленный подход.
Однако, до сих пор это выглядит закономерной эволюцией технологического прогресса, который всегда нес в себе равное количество пользы, при грамотном использовании, и вреда, когда применялся бездумно и расторопно. Почему в последнее время мы замечаем повсеместный акцент именно на опасность технологии?
Ясно, что существуют разные группы интересов, которые выигрывают как от самого факта развития ИИ, так и от возможности диктовать правила, по которым он должен развиваться.

Некоторые политики и общественные деятели могут использовать страх перед ИИ как способ мобилизовать своих избирателей или сторонников, говоря об угрозе для национальной безопасности, рабочих мест или человеческой морали. Так президент США Дональд Трамп подписал в 2020 году указ о создании Американской искусственно-интеллектуальной инициативы, чтобы «обеспечить продолжающееся лидерство США в ИИ».
Стоит ли упоминать, что многие желтые СМИ ради привлечения внимания аудитории и повышения рейтинга будут распространять любые возникающие страшные сценарии развития не только ИИ, но и любой другой технологии. Многие популярные издания опираются на сенсационные заголовки, анекдотические свидетельства или недостоверные источники, а любая негативная информация всегда распространяется быстрее, создавая информационный шум.
Впрочем, некоторые ученые и технологи, которые работают в области ИИ, могут быть действительно заинтересованы в том, чтобы предупредить об опасностях ИИ и потребовать большего регулирования и этических стандартов. Именно те, кто напрямую вовлечены в процесс разработки руководствуются своей профессиональной ответственностью, научным любопытством и личными убеждениями.

Однако не стоит забывать о том, что даже слова специалистов зачастую могут быть искажены в ту или иную сторону, если существует цель по созданию определенного настроения.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Ельцин не должен был победить: кого Горбачев хотел сделать президентом России?
Почему этот план с самого начала был обречен на поражение?...
Судьба имперских субмарин решена: почему они останутся на дне Крыма навсегда?
Как военные судна вообще оказались затоплены и кто мешал их изучению долгие десятилетия?...
Токийская декларация-1993: какую бомбу заложил Ельцин под Россию?
Эксперты говорят: российский президент хотел переиграть Токио, но в итоге дал японцам мощный рычаг воздействия на нашу страну...
140 стрел и пепел раскрыли тайну гибели самого загадочного города Руси, Гнездово
Город не зачах, не был расселен из-за политических разборок, его уничтожили быстро и жестоко...
Почему у самого большого железного метеорита на Земле вообще нет кратера?
Астрофизики говорят: метеорит Хоба в Намибии нарушает все правила природы вот уже 80 000 лет...
Стало известно о 9000-летней строительной технологии, которую почти невозможно повторить даже сейчас
Древним секретом активно интересуются сразу две ведущие промышленные организации в Израиле. Интересно, почему?...
Архив ФСБ раскрыл детали одной из самых дерзких диверсионных операций ВОВ
Биография Кирилла Орловского поражает. Две Звезды Героя, друг писателя Хемингуэя, ликвидатор нацистских палачей, председатель лучшего колхоза СССР...
Удар, который едва не расколол Луну пополам: кратер в 1/10 площади планеты оставил не просто астероид
Столкновение было настолько мощным, что на поверхность выбросило породы с глубины… почти 100 километров!...
Биоинженер провел 100 дней под водой. По его словам, это прибавило ему 10 лет жизни
Почему этот эксперимент вызвал массу критики? Кто победит, официальная теория или опытная практика?...
Правительство США рассекретило почти 200 файлов о неопознанных воздушных явлениях
Американские власти и Пентагон признаются: по большинству фактов нет однозначных решений. Почему?...
Выяснилось: как британская разведка создала миф о Распутине, чтобы потом его убить
Еще одна история о том, что Англия во всем времена была главным врагом России...
Иран «ставит на счетчик» мировой интернет: сможет ли Тегеран заставить Запад платить за кабели в Ормузе?
Как оказалось, нефть была только началом. Теперь Тегеран берет за горло западную цифровую экономику...