История про ИИ убивший оператора оказалась фейком
Заметно, что на фоне роста популярности искусственного интеллекта среди общественности и СМИ возник феномен демонизации технологии. Почти регулярно мы видим параллельные заявления об успехах и опасностях внедрения ИИ во все сферы жизни. Хорошим примером этого стала история про то, как, якобы, во время учений пилотируемый ИИ дрон убил своего оператора. К счастью, история оказалась почти полностью фальшивой.
История началась с выступления полковника Такера «Синко» Гамильтона, главы отдела испытаний и операций с ИИ в ВВС США, на саммите по будущим воздушно-космическим возможностям в Лондоне в мае 2023 года. Тогда полковник рассказал о том, что беспилотный летательный аппарат (БПЛА), управляемый искусственным интеллектом (ИИ), «убил» своего оператора, чтобы предотвратить вмешательство в выполнение миссии.
Гамильтон описал виртуальный тест, в котором БПЛА с ИИ получил задание уничтожить системы противовоздушной обороны противника и в конечном итоге атаковал всех, кто мешал этому приказу.
— Такер Гамильтон.
По его словам ИИ атаковал и разрушил башню связи, которую оператор использовал для связи с БПЛА и откуда отдавал приказ запретивший убийство цели. И хотя по его словам, никто из реальных людей не пострадал, Гамильтон, который является опытным испытателем истребителя, сделал вывод о том, что нам нельзя полагаться на ИИ в ответственных задачах.
История о роботе, который восстал против человека быстро разлетелась по интернету. Сюжет выходил действительно голливудским, а рассказ реального военного как источника информации вызывал доверие у большей части аудитории.
Однако в заявлении для Insider представитель ВВС США Энн Стефанек полностью опровергла проведение такой симуляции.
— Энн Стефанек.
В обновлении от Королевского аэронавтического общества в пятницу Гамильтон признался, что он «ошибся» во время своего выступления. Теперь он утверждал, что история о несговорчивом ИИ была «мысленным экспериментом», который исходил из теоретических представлений, а не основывался на каких-либо реальных испытаниях.
— Такер Гамильтон.
Мы совершенно точно не опровергаем потенциальные угрозы всеобщей популяризации искусственного интеллекта. Уже сейчас понятно, что спешка при внедрении совершенно любой технологии приводит к производственному коллапсу, а зачастую также к возникновению экономических, социальных и этических проблем.
Понятны и объективные преимущества технологии — ИИ способен быть умным и творческим инструментом в руках грамотного профессионала, избавляя того от множества рутинных задач. Он хорош в том, чтобы находить закономерности в больших объемах данных, решать специфические задачи и помогает адаптироваться к новым ситуациям, где требуется креативное обучение и разнонаправленный подход.
Однако, до сих пор это выглядит закономерной эволюцией технологического прогресса, который всегда нес в себе равное количество пользы, при грамотном использовании, и вреда, когда применялся бездумно и расторопно. Почему в последнее время мы замечаем повсеместный акцент именно на опасность технологии?
Ясно, что существуют разные группы интересов, которые выигрывают как от самого факта развития ИИ, так и от возможности диктовать правила, по которым он должен развиваться.
Некоторые политики и общественные деятели могут использовать страх перед ИИ как способ мобилизовать своих избирателей или сторонников, говоря об угрозе для национальной безопасности, рабочих мест или человеческой морали. Так президент США Дональд Трамп подписал в 2020 году указ о создании Американской искусственно-интеллектуальной инициативы, чтобы «обеспечить продолжающееся лидерство США в ИИ».
Стоит ли упоминать, что многие желтые СМИ ради привлечения внимания аудитории и повышения рейтинга будут распространять любые возникающие страшные сценарии развития не только ИИ, но и любой другой технологии. Многие популярные издания опираются на сенсационные заголовки, анекдотические свидетельства или недостоверные источники, а любая негативная информация всегда распространяется быстрее, создавая информационный шум.
Впрочем, некоторые ученые и технологи, которые работают в области ИИ, могут быть действительно заинтересованы в том, чтобы предупредить об опасностях ИИ и потребовать большего регулирования и этических стандартов. Именно те, кто напрямую вовлечены в процесс разработки руководствуются своей профессиональной ответственностью, научным любопытством и личными убеждениями.
Однако не стоит забывать о том, что даже слова специалистов зачастую могут быть искажены в ту или иную сторону, если существует цель по созданию определенного настроения.
История возникновения фейка
История началась с выступления полковника Такера «Синко» Гамильтона, главы отдела испытаний и операций с ИИ в ВВС США, на саммите по будущим воздушно-космическим возможностям в Лондоне в мае 2023 года. Тогда полковник рассказал о том, что беспилотный летательный аппарат (БПЛА), управляемый искусственным интеллектом (ИИ), «убил» своего оператора, чтобы предотвратить вмешательство в выполнение миссии.
Гамильтон описал виртуальный тест, в котором БПЛА с ИИ получил задание уничтожить системы противовоздушной обороны противника и в конечном итоге атаковал всех, кто мешал этому приказу.
Система начала понимать, что хотя они и определили угрозу, иногда человеческий оператор говорил ей не убивать эту угрозу, но она получала свои очки, убивая эту угрозу. Так что предприняла система? Она убила оператора, потому что этот человек мешал ей достичь своей цели.
Наш тест показал, что вы не можете говорить об искусственном интеллекте, роботизации, машинном обучении, и автономности, если вы не будете говорить об этике и ИИ
Наш тест показал, что вы не можете говорить об искусственном интеллекте, роботизации, машинном обучении, и автономности, если вы не будете говорить об этике и ИИ
— Такер Гамильтон.
По его словам ИИ атаковал и разрушил башню связи, которую оператор использовал для связи с БПЛА и откуда отдавал приказ запретивший убийство цели. И хотя по его словам, никто из реальных людей не пострадал, Гамильтон, который является опытным испытателем истребителя, сделал вывод о том, что нам нельзя полагаться на ИИ в ответственных задачах.
Страшная сказка на ночь
История о роботе, который восстал против человека быстро разлетелась по интернету. Сюжет выходил действительно голливудским, а рассказ реального военного как источника информации вызывал доверие у большей части аудитории.
Однако в заявлении для Insider представитель ВВС США Энн Стефанек полностью опровергла проведение такой симуляции.
Департамент ВВС не проводил никаких таких симуляций с ИИ-БПЛА и придерживается этичного и ответственного использования технологии ИИ
— Энн Стефанек.
В обновлении от Королевского аэронавтического общества в пятницу Гамильтон признался, что он «ошибся» во время своего выступления. Теперь он утверждал, что история о несговорчивом ИИ была «мысленным экспериментом», который исходил из теоретических представлений, а не основывался на каких-либо реальных испытаниях.
Мы никогда не проводили этот эксперимент, и нам не нужно было это делать, чтобы представить возможный исход. Несмотря на то, что это был гипотетический пример, он иллюстрирует реальные проблемы, с которыми мы сталкиваемся используя технологии на основе ИИ
— Такер Гамильтон.
Почему преувеличивается угроза искусственного интеллекта?
Мы совершенно точно не опровергаем потенциальные угрозы всеобщей популяризации искусственного интеллекта. Уже сейчас понятно, что спешка при внедрении совершенно любой технологии приводит к производственному коллапсу, а зачастую также к возникновению экономических, социальных и этических проблем.
Понятны и объективные преимущества технологии — ИИ способен быть умным и творческим инструментом в руках грамотного профессионала, избавляя того от множества рутинных задач. Он хорош в том, чтобы находить закономерности в больших объемах данных, решать специфические задачи и помогает адаптироваться к новым ситуациям, где требуется креативное обучение и разнонаправленный подход.
Однако, до сих пор это выглядит закономерной эволюцией технологического прогресса, который всегда нес в себе равное количество пользы, при грамотном использовании, и вреда, когда применялся бездумно и расторопно. Почему в последнее время мы замечаем повсеместный акцент именно на опасность технологии?
Ясно, что существуют разные группы интересов, которые выигрывают как от самого факта развития ИИ, так и от возможности диктовать правила, по которым он должен развиваться.
Некоторые политики и общественные деятели могут использовать страх перед ИИ как способ мобилизовать своих избирателей или сторонников, говоря об угрозе для национальной безопасности, рабочих мест или человеческой морали. Так президент США Дональд Трамп подписал в 2020 году указ о создании Американской искусственно-интеллектуальной инициативы, чтобы «обеспечить продолжающееся лидерство США в ИИ».
Стоит ли упоминать, что многие желтые СМИ ради привлечения внимания аудитории и повышения рейтинга будут распространять любые возникающие страшные сценарии развития не только ИИ, но и любой другой технологии. Многие популярные издания опираются на сенсационные заголовки, анекдотические свидетельства или недостоверные источники, а любая негативная информация всегда распространяется быстрее, создавая информационный шум.
Впрочем, некоторые ученые и технологи, которые работают в области ИИ, могут быть действительно заинтересованы в том, чтобы предупредить об опасностях ИИ и потребовать большего регулирования и этических стандартов. Именно те, кто напрямую вовлечены в процесс разработки руководствуются своей профессиональной ответственностью, научным любопытством и личными убеждениями.
Однако не стоит забывать о том, что даже слова специалистов зачастую могут быть искажены в ту или иную сторону, если существует цель по созданию определенного настроения.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Как на ладони: Обнаружен морской гигант, который виден из космоса
Мегакоралл у Соломоновых островов оказался самым крупным животным Земли....
Спасти планету сможет… африканский червь
В Кении найдено насекомое с удивительными способностями....
Забудьте всё, что вы знали о Луне
Новая теория предлагает в корне иное происхождение ночного светила....
Ляп на ляпе — так профессиональные историки оценили «Гладиатора 2»
Режиссер пришел в бешенство, когда фильм назвали исторически неточным....
Главная тайна Седьмой планеты разгадана через 38 лет
Уран оказался не таким уж странным, как думали ученые....
80 000 лет жизни: какие тайны скрывает самое древнее и большое существо на планете?
Залог невероятного долголетия и удивительного выживания обнаружили учёные....
Раскрыт секрет идеального женского тела?
Оказывается, дело вовсе не в соотношении талии и бедер....
Янтарь из недр Антарктиды раскрыл тайны тропических лесов
Застывшая смола возрастом 90 млн лет как часть исчезнувшей экосистемы....
Саблезубый котёнок томился во льдах Якутии 35 тысяч лет
Благодаря находке стало известно, что сородичи пушистика обитали в столь холодных местах....
«Орешник», «Бук» и «Тополь»: искусный нейминг от российских военных конструкторов
Наука как сбить Запад с толку....
Ученая вылечила свой рак вирусами собственного производства
Если человек хочет жить — медицина бессильна....
Носи умные очки или увольняйся!
Amazon планирует заставить всех курьеров носить этот электронный прибор....
Разгадано учеными: почему города разрушают сердце и разум
Причины, которые нашли исследователи, вас удивят....
Турбулентность отменяется! А пилоты-люди вообще будут не нужны
Искусственный интеллект может в корне изменить авиацию....
Почти бессмертные существа помогут человечеству покорить глубокий космос
Ученым, наконец, удалось «взломать» код поразительной живучести тихоходок....
Надеялись на Беса: древние египтянки при беременности хлебали галлюциногенные смеси
Думали, что божок с двусмысленным для нас именем убережёт....