Глобальный вопрос 2022: как не допустить непоправимых проблем при использовании ИИ?
Искусственный интеллект в уходящем году продемонстрировал взрывной потенциал прогнозирования событий, включая помощь фермерам, предсказание природных катаклизмов и эпидемий. Автоматизированные системы сегодня приносят немало пользы. Их задействуют для принятия долгосрочных решений и переосмысления конкретных ситуаций. Однако этичное использование технологий ИИ критически важно для достижения ожидаемых результатов.
Не стоит сбрасывать со счетов факт, что применение ИИ связано с высоким риском для областей с высокой ценой ошибки, например, при медицинской диагностике или оценке качеств кандидата при найме. ИИ также может стать причиной утечки персональныъх данных, поэтому необходимо срочно найти баланс в оправданном применении ИИ.
На фоне всеобщих восторгов по поводу действительно фантастических успехов нейросетей в выполнении множества творческих задач, все чаще стали возникать вопросы, связанные с безопасностью технологии.
Внезапно выявились неожиданные проблемы, которые затронули значительную часть жителей планеты. Так внезапно оказалось, что ИИ умеет врать и подтасовывать факты, портить программный код и помогает студентам обманывать преподавателей. Новые проблемы потребовали радикально пересмотреть подход к разработке и использованию искусственного интеллекта. Стало ясно, если выпустить джинна из бутылки, загнать его обратно будет непросто.
Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структури органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы люди и компании могли понять, как использовать его безопасно.
Регуляторы должны разработать законы, которые защитят конфиденциальность людей и закрепят правила для ИИ. Также им предстоит создать систему, которая позволит проводитьаудит ИИ.
В Европе уже начали работу над законом об ИИ. Закон призван регулировать использование ИИ и выделяет четыре категории рисков для прав граждан: неприемлемые, высокие, ограниченные и минимальные риски.
Комиссия ЕС предложила три правовые инициативы, которые помогут создать безопасный ИИ. Они включают в себя создание правовой базы для ИИ, адаптацию правил ответственности и пересмотр отраслевого законодательства. Похожий подход применяется и другими странами.
Администрация Белого дома также опубликовала недавно проект Билля о правах на ИИ, который регулирует разработку, использование и развертывание автоматизированных систем. Он также определяет пять принципов, которые необходимо соблюдать при использовании технологий ИИ.
Безопасность и эффективность
Чтобы организации могли нести ответственность за использование ИИ, необходимо обеспечить безопасную и эффективную систему управления. Она требует наличия знаний об ИИ и цифровой грамотности у Руководства.
Защита от алгоритмической дискриминации
Алгоритмическая дискриминация — принцип, когда автоматизированные системы оказывают неблагоприятное воздействие на людей в зависимости от их расы, цвета кожи, этнической принадлежности, пола, религии и других классификаций, охраняемых законом.
Защита персональных данных
Данные и выводы, связанные с конфиденциальными областями, должны быть защищены. Граждане должны иметь больше свободы действий в отношении того, как используются данные о них. Слежка и мониторинг не должны использоваться в сфере образования, работы, жилья или других областях. Граждане должны иметь доступ к отчетам, подтверждающим защиту их данных.
Прозрачность
Как гражданин, вы имеете право знать, как используется система ИИ и понимать, как она влияет на вашу жизнь. Любое взаимодействие ИИ с людьми должно быть подробно разъяснено людям.
Право на альтернативу
Люди должны иметь возможность отказаться от автоматизированных систем и получить доступ к человеческому рассмотрению и решению вопросов. Человеческие альтернативы должны быть доступными, справедливыми и эффективными.
Канада является лидером в продвижении искусственного интеллекта, но ее консервативная культура может стать причиной снижения темпов внедрения подобных систем. В 2022 году был представлен закон о реализации цифровой хартии, который вводит новые правила для защиты конфиденциальности потребителей, обеспечения безопасного развертывания ИИ и предотвращения мошеннического использования данных. Он также обеспечивает создание должности уполномоченного по ИИ и данным, который будет поддерживать министра инноваций, науки и промышленности в выполнении министерских обязанностей.
Страны Запада только начинают в полной мере осознавать растущие проблемы. В РФ власти оказались более прозорливыми: для регулирования данной области в России еще в 2019 году был утвержден Указ Президента № 490, который устанавливает основные цели регулирования искусственного интеллекта. Он включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение, процессы и сервисы для обработки данных и поиска решений. Для достижения целей, предусмотренных Указом № 490, необходимые правовые условия должны быть созданы до 2024 года.
Таким образом, 2023 год станет годом введения новых регламентов, ограничивающих использование искусственного интеллекта в критически важных областях. Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структур и органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы и люди и компании могли понять, как использовать его без вреда.
В чем суть проблемы
Не стоит сбрасывать со счетов факт, что применение ИИ связано с высоким риском для областей с высокой ценой ошибки, например, при медицинской диагностике или оценке качеств кандидата при найме. ИИ также может стать причиной утечки персональныъх данных, поэтому необходимо срочно найти баланс в оправданном применении ИИ.
На фоне всеобщих восторгов по поводу действительно фантастических успехов нейросетей в выполнении множества творческих задач, все чаще стали возникать вопросы, связанные с безопасностью технологии.
Внезапно выявились неожиданные проблемы, которые затронули значительную часть жителей планеты. Так внезапно оказалось, что ИИ умеет врать и подтасовывать факты, портить программный код и помогает студентам обманывать преподавателей. Новые проблемы потребовали радикально пересмотреть подход к разработке и использованию искусственного интеллекта. Стало ясно, если выпустить джинна из бутылки, загнать его обратно будет непросто.
2023 очевидно станет годом введения новых регламентов, ограничивающих использование искусственного интеллекта в критически важных областях.
Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структури органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы люди и компании могли понять, как использовать его безопасно.
Регуляторы должны разработать законы, которые защитят конфиденциальность людей и закрепят правила для ИИ. Также им предстоит создать систему, которая позволит проводитьаудит ИИ.
В Европе уже начали работу над законом об ИИ. Закон призван регулировать использование ИИ и выделяет четыре категории рисков для прав граждан: неприемлемые, высокие, ограниченные и минимальные риски.
Комиссия ЕС предложила три правовые инициативы, которые помогут создать безопасный ИИ. Они включают в себя создание правовой базы для ИИ, адаптацию правил ответственности и пересмотр отраслевого законодательства. Похожий подход применяется и другими странами.
Администрация Белого дома также опубликовала недавно проект Билля о правах на ИИ, который регулирует разработку, использование и развертывание автоматизированных систем. Он также определяет пять принципов, которые необходимо соблюдать при использовании технологий ИИ.
Безопасность и эффективность
Чтобы организации могли нести ответственность за использование ИИ, необходимо обеспечить безопасную и эффективную систему управления. Она требует наличия знаний об ИИ и цифровой грамотности у Руководства.
Защита от алгоритмической дискриминации
Алгоритмическая дискриминация — принцип, когда автоматизированные системы оказывают неблагоприятное воздействие на людей в зависимости от их расы, цвета кожи, этнической принадлежности, пола, религии и других классификаций, охраняемых законом.
Защита персональных данных
Данные и выводы, связанные с конфиденциальными областями, должны быть защищены. Граждане должны иметь больше свободы действий в отношении того, как используются данные о них. Слежка и мониторинг не должны использоваться в сфере образования, работы, жилья или других областях. Граждане должны иметь доступ к отчетам, подтверждающим защиту их данных.
Прозрачность
Как гражданин, вы имеете право знать, как используется система ИИ и понимать, как она влияет на вашу жизнь. Любое взаимодействие ИИ с людьми должно быть подробно разъяснено людям.
Право на альтернативу
Люди должны иметь возможность отказаться от автоматизированных систем и получить доступ к человеческому рассмотрению и решению вопросов. Человеческие альтернативы должны быть доступными, справедливыми и эффективными.
Канада является лидером в продвижении искусственного интеллекта, но ее консервативная культура может стать причиной снижения темпов внедрения подобных систем. В 2022 году был представлен закон о реализации цифровой хартии, который вводит новые правила для защиты конфиденциальности потребителей, обеспечения безопасного развертывания ИИ и предотвращения мошеннического использования данных. Он также обеспечивает создание должности уполномоченного по ИИ и данным, который будет поддерживать министра инноваций, науки и промышленности в выполнении министерских обязанностей.
Страны Запада только начинают в полной мере осознавать растущие проблемы. В РФ власти оказались более прозорливыми: для регулирования данной области в России еще в 2019 году был утвержден Указ Президента № 490, который устанавливает основные цели регулирования искусственного интеллекта. Он включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение, процессы и сервисы для обработки данных и поиска решений. Для достижения целей, предусмотренных Указом № 490, необходимые правовые условия должны быть созданы до 2024 года.
Таким образом, 2023 год станет годом введения новых регламентов, ограничивающих использование искусственного интеллекта в критически важных областях. Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структур и органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы и люди и компании могли понять, как использовать его без вреда.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Российские ученые «поймали за руку» Илона Маска
Они доказали, что его ракеты пробивают дыры в атмосфере....
Удар неизбежен?
Куски взорванного астероида нацелились на Землю....
Западная Европа и США готовятся к худшему
Новая угроза ожидается из Латинской Америки....
«Титаник» разваливается прямо на глазах
Кто же ускоряет гибель легендарного корабля: люди или природа?...
NASA обнаружило таинственное энергетическое поле вокруг Земли
Оно уникально, и, похоже, благодаря нему на планете… появилась жизнь....
Спасение человечества находится на дне Северного Ледовитого океана
Финские ученые уверены в этом на 100%....
Starliner Boeing снова в новостях: теперь там что-то жутко стучит и лязгает
NASA придумывает объяснения, а бывший командир МКС говорит, что это не к добру....
Прорыв или кошмар? Искусственный интеллект стал изменять собственный код
Ученые говорят: ничего страшного. Но так ли это на самом деле?...
Форресты Гампы отменяются
Американские ученые «взломали» код аутизма....
Космический корабль BepiColombo невероятно близко подлетел к Меркурию
Свежие снимки рябой планеты удалось сделать благодаря возникшим в полёте неполадкам....
Сосуд из найденного в Шотландии клада викингов оказался иранским
Никто не ожидал, что сокровище прибыло из столь отдаленных мест....
Безглазая смерть чует тьму: как именно грибок превращает мух в зомби-некрофилов
Главное случается ночью....
Новый метод поможет раскрыть секс-преступления во много раз быстрее
Открытие ускорит проверку улик....
Азиаты оккупируют Британию: сначала мигранты, теперь желтоногие шершни
Экологи бьют тревогу и массово рассылают методички населению....
Морская жаба, летающие макаронные монстры и осьминог-призрак Каспер
Шокирующие находки на подводном хребте Наска....
Роботы и 3D-печать сделали бетон прочнее благодаря особой структуре
Имитируя природу, бетон можно уложить так, чтобы повысить прочность на 63%....