Ученые обеспокоены влиянием искусственного интеллекта на наше общество
85

Ученые обеспокоены влиянием искусственного интеллекта на наше общество

Профессор Ланкастерского университета в сфере международной безопасности, Джо Бертон утверждает, что ИИ и алгоритмы — это не только инструменты, которые органы национальной безопасности используют для предотвращения вредоносных действий в интернете.


Новейшие технологии могут быть использованы злоумышленниками для повышения градуса поляризации, распространения радикализма и способствования политическому насилию, что несет угрозу национальной безопасности. Более того, процессы секьюритизации, представляющие развивающиеся технологии как экзистенциальную угрозу, сыграли ключевую роль при разработке ИИ и, в результате, оказали пагубное влияние на международную безопасность.

Статья профессора Бёртона «Алгоритмический экстремизм? Секьюритизация искусственного интеллекта (ИИ) и ее воздействие на радикализм, поляризацию и политическое насилие» опубликована в журнале Technology in Society. В работе рассматривается, как ИИ был секьюритизирован на протяжении всей своей истории в представлении средств массовой информации и популярной культуры, а также в ходе изучения современных примеров поляризующего и радикализующего воздействия ИИ.

Автор приводит в пример классическую серию фильмов «Терминатор», в которой изображается геноцид, совершенный «гениальным и зловещим» искусственным интеллектом, и утверждает, что эти фильмы внесли огромный вклад в общественное мнение об угрозе ИИ. В художественном произведении появление машин с сознанием привело к разрушительным последствиям для человечества — ядерной войне и преднамеренной попытке уничтожения всего человеческого вида.

Это недоверие к машинам, связанные с ними опасения и ассоциация с биологическими, ядерными и генетическими угрозами человечеству способствовали желанию правительств и национальных агентств по безопасности влиять на разработку технологий, чтобы снизить риски и использовать их положительные возможности

— Джо Бертон, профессор Ланкастерского университета в сфере международной безопасности.

Роботы-убийцы и манипуляторы


Возможности дронов, например тех, что используются в войне на Украине, по словам профессора Бертона включают в себя полную автономность, используя такие функции как идентификация и распознавание целей. И хотя проводилась широкая и влиятельная компания о запрете «роботов-убийц» и сохранении эксклюзивности роли человека в принятии влияющих на свою и чужие жизни решений, интеграция вооруженных дронов продолжается быстрыми темпами.

В области кибербезопасности ИИ используется в значительной степени, причем наиболее распространенной областью является дезинформация и психологическая война в сети. В качестве примера подобных действий автор приводит атаку на избирательные процессы в США в 2016 году и последующий скандал с Cambridge Analytica. Эти события показали потенциал ИИ в создании мнений, связанных с поляризацией и поощрением радикальных убеждений.

Работа профессора Бертона исследует и саму технологию ИИ. В статье утверждается, что проблемы лежат в разработке алгоритмов, обучающих данных и в способах взаимодействия людей с машинами. Статья заканчивается посланием исследователям, работающим в области кибербезопасности и международных отношений.

ИИ определенно способен трансформировать общества в позитивную сторону, но также имеет негативные факторы, которые необходимо изучать. Ученым, работающим в области кибербезопасности и международных отношений, предоставляется возможность включить эти факторы в разрабатываемую повестку дня исследований ИИ и не рассматривать ИИ как политически нейтральную технологию

—Джо Бертон.
Наши новостные каналы

Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.

Рекомендуем для вас