
Глобальный вопрос 2022: как не допустить непоправимых проблем при использовании ИИ?
Искусственный интеллект в уходящем году продемонстрировал взрывной потенциал прогнозирования событий, включая помощь фермерам, предсказание природных катаклизмов и эпидемий. Автоматизированные системы сегодня приносят немало пользы. Их задействуют для принятия долгосрочных решений и переосмысления конкретных ситуаций. Однако этичное использование технологий ИИ критически важно для достижения ожидаемых результатов.
Не стоит сбрасывать со счетов факт, что применение ИИ связано с высоким риском для областей с высокой ценой ошибки, например, при медицинской диагностике или оценке качеств кандидата при найме. ИИ также может стать причиной утечки персональныъх данных, поэтому необходимо срочно найти баланс в оправданном применении ИИ.
На фоне всеобщих восторгов по поводу действительно фантастических успехов нейросетей в выполнении множества творческих задач, все чаще стали возникать вопросы, связанные с безопасностью технологии.
Внезапно выявились неожиданные проблемы, которые затронули значительную часть жителей планеты. Так внезапно оказалось, что ИИ умеет врать и подтасовывать факты, портить программный код и помогает студентам обманывать преподавателей. Новые проблемы потребовали радикально пересмотреть подход к разработке и использованию искусственного интеллекта. Стало ясно, если выпустить джинна из бутылки, загнать его обратно будет непросто.
Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структури органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы люди и компании могли понять, как использовать его безопасно.
Регуляторы должны разработать законы, которые защитят конфиденциальность людей и закрепят правила для ИИ. Также им предстоит создать систему, которая позволит проводитьаудит ИИ.
В Европе уже начали работу над законом об ИИ. Закон призван регулировать использование ИИ и выделяет четыре категории рисков для прав граждан: неприемлемые, высокие, ограниченные и минимальные риски.
Комиссия ЕС предложила три правовые инициативы, которые помогут создать безопасный ИИ. Они включают в себя создание правовой базы для ИИ, адаптацию правил ответственности и пересмотр отраслевого законодательства. Похожий подход применяется и другими странами.
Администрация Белого дома также опубликовала недавно проект Билля о правах на ИИ, который регулирует разработку, использование и развертывание автоматизированных систем. Он также определяет пять принципов, которые необходимо соблюдать при использовании технологий ИИ.
Безопасность и эффективность
Чтобы организации могли нести ответственность за использование ИИ, необходимо обеспечить безопасную и эффективную систему управления. Она требует наличия знаний об ИИ и цифровой грамотности у Руководства.
Защита от алгоритмической дискриминации
Алгоритмическая дискриминация — принцип, когда автоматизированные системы оказывают неблагоприятное воздействие на людей в зависимости от их расы, цвета кожи, этнической принадлежности, пола, религии и других классификаций, охраняемых законом.
Защита персональных данных
Данные и выводы, связанные с конфиденциальными областями, должны быть защищены. Граждане должны иметь больше свободы действий в отношении того, как используются данные о них. Слежка и мониторинг не должны использоваться в сфере образования, работы, жилья или других областях. Граждане должны иметь доступ к отчетам, подтверждающим защиту их данных.
Прозрачность
Как гражданин, вы имеете право знать, как используется система ИИ и понимать, как она влияет на вашу жизнь. Любое взаимодействие ИИ с людьми должно быть подробно разъяснено людям.
Право на альтернативу
Люди должны иметь возможность отказаться от автоматизированных систем и получить доступ к человеческому рассмотрению и решению вопросов. Человеческие альтернативы должны быть доступными, справедливыми и эффективными.
Канада является лидером в продвижении искусственного интеллекта, но ее консервативная культура может стать причиной снижения темпов внедрения подобных систем. В 2022 году был представлен закон о реализации цифровой хартии, который вводит новые правила для защиты конфиденциальности потребителей, обеспечения безопасного развертывания ИИ и предотвращения мошеннического использования данных. Он также обеспечивает создание должности уполномоченного по ИИ и данным, который будет поддерживать министра инноваций, науки и промышленности в выполнении министерских обязанностей.
Страны Запада только начинают в полной мере осознавать растущие проблемы. В РФ власти оказались более прозорливыми: для регулирования данной области в России еще в 2019 году был утвержден Указ Президента № 490, который устанавливает основные цели регулирования искусственного интеллекта. Он включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение, процессы и сервисы для обработки данных и поиска решений. Для достижения целей, предусмотренных Указом № 490, необходимые правовые условия должны быть созданы до 2024 года.
Таким образом, 2023 год станет годом введения новых регламентов, ограничивающих использование искусственного интеллекта в критически важных областях. Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структур и органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы и люди и компании могли понять, как использовать его без вреда.
В чем суть проблемы
Не стоит сбрасывать со счетов факт, что применение ИИ связано с высоким риском для областей с высокой ценой ошибки, например, при медицинской диагностике или оценке качеств кандидата при найме. ИИ также может стать причиной утечки персональныъх данных, поэтому необходимо срочно найти баланс в оправданном применении ИИ.
На фоне всеобщих восторгов по поводу действительно фантастических успехов нейросетей в выполнении множества творческих задач, все чаще стали возникать вопросы, связанные с безопасностью технологии.
Внезапно выявились неожиданные проблемы, которые затронули значительную часть жителей планеты. Так внезапно оказалось, что ИИ умеет врать и подтасовывать факты, портить программный код и помогает студентам обманывать преподавателей. Новые проблемы потребовали радикально пересмотреть подход к разработке и использованию искусственного интеллекта. Стало ясно, если выпустить джинна из бутылки, загнать его обратно будет непросто.
2023 очевидно станет годом введения новых регламентов, ограничивающих использование искусственного интеллекта в критически важных областях.
Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структури органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы люди и компании могли понять, как использовать его безопасно.
Регуляторы должны разработать законы, которые защитят конфиденциальность людей и закрепят правила для ИИ. Также им предстоит создать систему, которая позволит проводитьаудит ИИ.
В Европе уже начали работу над законом об ИИ. Закон призван регулировать использование ИИ и выделяет четыре категории рисков для прав граждан: неприемлемые, высокие, ограниченные и минимальные риски.
Комиссия ЕС предложила три правовые инициативы, которые помогут создать безопасный ИИ. Они включают в себя создание правовой базы для ИИ, адаптацию правил ответственности и пересмотр отраслевого законодательства. Похожий подход применяется и другими странами.
Администрация Белого дома также опубликовала недавно проект Билля о правах на ИИ, который регулирует разработку, использование и развертывание автоматизированных систем. Он также определяет пять принципов, которые необходимо соблюдать при использовании технологий ИИ.
Безопасность и эффективность
Чтобы организации могли нести ответственность за использование ИИ, необходимо обеспечить безопасную и эффективную систему управления. Она требует наличия знаний об ИИ и цифровой грамотности у Руководства.
Защита от алгоритмической дискриминации
Алгоритмическая дискриминация — принцип, когда автоматизированные системы оказывают неблагоприятное воздействие на людей в зависимости от их расы, цвета кожи, этнической принадлежности, пола, религии и других классификаций, охраняемых законом.
Защита персональных данных
Данные и выводы, связанные с конфиденциальными областями, должны быть защищены. Граждане должны иметь больше свободы действий в отношении того, как используются данные о них. Слежка и мониторинг не должны использоваться в сфере образования, работы, жилья или других областях. Граждане должны иметь доступ к отчетам, подтверждающим защиту их данных.
Прозрачность
Как гражданин, вы имеете право знать, как используется система ИИ и понимать, как она влияет на вашу жизнь. Любое взаимодействие ИИ с людьми должно быть подробно разъяснено людям.
Право на альтернативу
Люди должны иметь возможность отказаться от автоматизированных систем и получить доступ к человеческому рассмотрению и решению вопросов. Человеческие альтернативы должны быть доступными, справедливыми и эффективными.
Канада является лидером в продвижении искусственного интеллекта, но ее консервативная культура может стать причиной снижения темпов внедрения подобных систем. В 2022 году был представлен закон о реализации цифровой хартии, который вводит новые правила для защиты конфиденциальности потребителей, обеспечения безопасного развертывания ИИ и предотвращения мошеннического использования данных. Он также обеспечивает создание должности уполномоченного по ИИ и данным, который будет поддерживать министра инноваций, науки и промышленности в выполнении министерских обязанностей.
Страны Запада только начинают в полной мере осознавать растущие проблемы. В РФ власти оказались более прозорливыми: для регулирования данной области в России еще в 2019 году был утвержден Указ Президента № 490, который устанавливает основные цели регулирования искусственного интеллекта. Он включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение, процессы и сервисы для обработки данных и поиска решений. Для достижения целей, предусмотренных Указом № 490, необходимые правовые условия должны быть созданы до 2024 года.
Таким образом, 2023 год станет годом введения новых регламентов, ограничивающих использование искусственного интеллекта в критически важных областях. Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структур и органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы и люди и компании могли понять, как использовать его без вреда.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

NASA объявило: Найдены самые убедительные доказательства существования жизни на Марсе
Ученые тем временем выясняют, как могли выглядеть древние жители Красной планеты...

16-тонный саркофаг, заполненный сокровищами, может подтвердить одну из самых таинственных и кровавых легенд древнего Китая
Какой секрет хранила эта гробница, что оставалась единственной нетронутой два тысячелетия?...

Ученый утверждает: у него есть доказательства, что мы живем в матрице
По словам Мелвина Вопсона, подсказки он нашел в ДНК, расширении Вселенной и фундаментальных законах физики...

Новая операция по объединению людей и животных может подарить… вечную жизнь
Медики признаются: уже сейчас можно сделать новое тело человека. Но один орган пока не поддается науке...

Выяснилось, что полное восстановление озонового слоя закончится глобальной катастрофой
Как так вышло, что в борьбе за экологию человечество сделало себе еще хуже?...

Оказывается, решение проблемы выбоин на дорогах существует уже почти 100 лет
Почему технология, забытая полвека назад, возвращается и становится очень популярной?...

Разгадка феномена «копченых» мумий может переписать древнейшую историю человечества
Поразительно: этот погребальный обычай, возможно, используют уже 42 000 лет подряд!...

Не украли, а «присвоили»: историки выяснили, как и откуда семья Марко Поло раздобыла главный символ Венеции
Данные, полученные из «ДНК» льва святого Марка, помогли распутать детектив длиной в 700 лет...

К 2035 году сектор Газа должен стать… самым продвинутым регионом на планете под управлением ИИ
По словам экспертов, в дерзком эксперименте за 100 млрд долларов есть только один большой вопрос: Куда выселить местное население?...

Каждый год, как расписанию, на Марсе образуется странное облако
Долгое время ученые не могли разгадать эту аномалию, но теперь ответ наконец-то найден!...