ВСЛУХ

Глобальный вопрос 2022: как не допустить непоправимых проблем при использовании ИИ?

Глобальный вопрос 2022: как не допустить непоправимых проблем при использовании ИИ?
Искусственный интеллект в уходящем году продемонстрировал взрывной потенциал прогнозирования событий, включая помощь фермерам, предсказание природных катаклизмов и эпидемий. Автоматизированные системы сегодня приносят немало пользы. Их задействуют для принятия долгосрочных решений и переосмысления конкретных ситуаций. Однако этичное использование технологий ИИ критически важно для достижения ожидаемых результатов.


В чем суть проблемы


Не стоит сбрасывать со счетов факт, что применение ИИ связано с высоким риском для областей с высокой ценой ошибки, например, при медицинской диагностике или оценке качеств кандидата при найме. ИИ также может стать причиной утечки персональныъх данных, поэтому необходимо срочно найти баланс в оправданном применении ИИ.

На фоне всеобщих восторгов по поводу действительно фантастических успехов нейросетей в выполнении множества творческих задач, все чаще стали возникать вопросы, связанные с безопасностью технологии.

Внезапно выявились неожиданные проблемы, которые затронули значительную часть жителей планеты. Так внезапно оказалось, что ИИ умеет врать и подтасовывать факты, портить программный код и помогает студентам обманывать преподавателей. Новые проблемы потребовали радикально пересмотреть подход к разработке и использованию искусственного интеллекта. Стало ясно, если выпустить джинна из бутылки, загнать его обратно будет непросто.

2023 очевидно станет годом введения новых регламентов, ограничивающих использование искусственного интеллекта в критически важных областях.


Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структури органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы люди и компании могли понять, как использовать его безопасно.

Регуляторы должны разработать законы, которые защитят конфиденциальность людей и закрепят правила для ИИ. Также им предстоит создать систему, которая позволит проводитьаудит ИИ.

В Европе уже начали работу над законом об ИИ. Закон призван регулировать использование ИИ и выделяет четыре категории рисков для прав граждан: неприемлемые, высокие, ограниченные и минимальные риски.

Комиссия ЕС предложила три правовые инициативы, которые помогут создать безопасный ИИ. Они включают в себя создание правовой базы для ИИ, адаптацию правил ответственности и пересмотр отраслевого законодательства. Похожий подход применяется и другими странами.

Администрация Белого дома также опубликовала недавно проект Билля о правах на ИИ, который регулирует разработку, использование и развертывание автоматизированных систем. Он также определяет пять принципов, которые необходимо соблюдать при использовании технологий ИИ.

Безопасность и эффективность
Чтобы организации могли нести ответственность за использование ИИ, необходимо обеспечить безопасную и эффективную систему управления. Она требует наличия знаний об ИИ и цифровой грамотности у Руководства.

Защита от алгоритмической дискриминации
Алгоритмическая дискриминация — принцип, когда автоматизированные системы оказывают неблагоприятное воздействие на людей в зависимости от их расы, цвета кожи, этнической принадлежности, пола, религии и других классификаций, охраняемых законом.

Защита персональных данных
Данные и выводы, связанные с конфиденциальными областями, должны быть защищены. Граждане должны иметь больше свободы действий в отношении того, как используются данные о них. Слежка и мониторинг не должны использоваться в сфере образования, работы, жилья или других областях. Граждане должны иметь доступ к отчетам, подтверждающим защиту их данных.

Прозрачность
Как гражданин, вы имеете право знать, как используется система ИИ и понимать, как она влияет на вашу жизнь. Любое взаимодействие ИИ с людьми должно быть подробно разъяснено людям.

Право на альтернативу
Люди должны иметь возможность отказаться от автоматизированных систем и получить доступ к человеческому рассмотрению и решению вопросов. Человеческие альтернативы должны быть доступными, справедливыми и эффективными.

Канада является лидером в продвижении искусственного интеллекта, но ее консервативная культура может стать причиной снижения темпов внедрения подобных систем. В 2022 году был представлен закон о реализации цифровой хартии, который вводит новые правила для защиты конфиденциальности потребителей, обеспечения безопасного развертывания ИИ и предотвращения мошеннического использования данных. Он также обеспечивает создание должности уполномоченного по ИИ и данным, который будет поддерживать министра инноваций, науки и промышленности в выполнении министерских обязанностей.

Страны Запада только начинают в полной мере осознавать растущие проблемы. В РФ власти оказались более прозорливыми: для регулирования данной области в России еще в 2019 году был утвержден Указ Президента № 490, который устанавливает основные цели регулирования искусственного интеллекта. Он включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение, процессы и сервисы для обработки данных и поиска решений. Для достижения целей, предусмотренных Указом № 490, необходимые правовые условия должны быть созданы до 2024 года.

Таким образом, 2023 год станет годом введения новых регламентов, ограничивающих использование искусственного интеллекта в критически важных областях. Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структур и органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы и люди и компании могли понять, как использовать его без вреда.

Автор:

Опасность ИИ

по вашему мнению:

Мы в Мы в Яндекс Дзен
Пять лучших бесплатных альтернатив Adobe PDF ReaderDDR4 против DDR5: что такое оперативная память DDR5 и стоит ли ее обновлять?