
Глобальный вопрос 2022: как не допустить непоправимых проблем при использовании ИИ?
Искусственный интеллект в уходящем году продемонстрировал взрывной потенциал прогнозирования событий, включая помощь фермерам, предсказание природных катаклизмов и эпидемий. Автоматизированные системы сегодня приносят немало пользы. Их задействуют для принятия долгосрочных решений и переосмысления конкретных ситуаций. Однако этичное использование технологий ИИ критически важно для достижения ожидаемых результатов.
Не стоит сбрасывать со счетов факт, что применение ИИ связано с высоким риском для областей с высокой ценой ошибки, например, при медицинской диагностике или оценке качеств кандидата при найме. ИИ также может стать причиной утечки персональныъх данных, поэтому необходимо срочно найти баланс в оправданном применении ИИ.
На фоне всеобщих восторгов по поводу действительно фантастических успехов нейросетей в выполнении множества творческих задач, все чаще стали возникать вопросы, связанные с безопасностью технологии.
Внезапно выявились неожиданные проблемы, которые затронули значительную часть жителей планеты. Так внезапно оказалось, что ИИ умеет врать и подтасовывать факты, портить программный код и помогает студентам обманывать преподавателей. Новые проблемы потребовали радикально пересмотреть подход к разработке и использованию искусственного интеллекта. Стало ясно, если выпустить джинна из бутылки, загнать его обратно будет непросто.
Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структури органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы люди и компании могли понять, как использовать его безопасно.
Регуляторы должны разработать законы, которые защитят конфиденциальность людей и закрепят правила для ИИ. Также им предстоит создать систему, которая позволит проводитьаудит ИИ.
В Европе уже начали работу над законом об ИИ. Закон призван регулировать использование ИИ и выделяет четыре категории рисков для прав граждан: неприемлемые, высокие, ограниченные и минимальные риски.
Комиссия ЕС предложила три правовые инициативы, которые помогут создать безопасный ИИ. Они включают в себя создание правовой базы для ИИ, адаптацию правил ответственности и пересмотр отраслевого законодательства. Похожий подход применяется и другими странами.
Администрация Белого дома также опубликовала недавно проект Билля о правах на ИИ, который регулирует разработку, использование и развертывание автоматизированных систем. Он также определяет пять принципов, которые необходимо соблюдать при использовании технологий ИИ.
Безопасность и эффективность
Чтобы организации могли нести ответственность за использование ИИ, необходимо обеспечить безопасную и эффективную систему управления. Она требует наличия знаний об ИИ и цифровой грамотности у Руководства.
Защита от алгоритмической дискриминации
Алгоритмическая дискриминация — принцип, когда автоматизированные системы оказывают неблагоприятное воздействие на людей в зависимости от их расы, цвета кожи, этнической принадлежности, пола, религии и других классификаций, охраняемых законом.
Защита персональных данных
Данные и выводы, связанные с конфиденциальными областями, должны быть защищены. Граждане должны иметь больше свободы действий в отношении того, как используются данные о них. Слежка и мониторинг не должны использоваться в сфере образования, работы, жилья или других областях. Граждане должны иметь доступ к отчетам, подтверждающим защиту их данных.
Прозрачность
Как гражданин, вы имеете право знать, как используется система ИИ и понимать, как она влияет на вашу жизнь. Любое взаимодействие ИИ с людьми должно быть подробно разъяснено людям.
Право на альтернативу
Люди должны иметь возможность отказаться от автоматизированных систем и получить доступ к человеческому рассмотрению и решению вопросов. Человеческие альтернативы должны быть доступными, справедливыми и эффективными.
Канада является лидером в продвижении искусственного интеллекта, но ее консервативная культура может стать причиной снижения темпов внедрения подобных систем. В 2022 году был представлен закон о реализации цифровой хартии, который вводит новые правила для защиты конфиденциальности потребителей, обеспечения безопасного развертывания ИИ и предотвращения мошеннического использования данных. Он также обеспечивает создание должности уполномоченного по ИИ и данным, который будет поддерживать министра инноваций, науки и промышленности в выполнении министерских обязанностей.
Страны Запада только начинают в полной мере осознавать растущие проблемы. В РФ власти оказались более прозорливыми: для регулирования данной области в России еще в 2019 году был утвержден Указ Президента № 490, который устанавливает основные цели регулирования искусственного интеллекта. Он включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение, процессы и сервисы для обработки данных и поиска решений. Для достижения целей, предусмотренных Указом № 490, необходимые правовые условия должны быть созданы до 2024 года.
Таким образом, 2023 год станет годом введения новых регламентов, ограничивающих использование искусственного интеллекта в критически важных областях. Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структур и органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы и люди и компании могли понять, как использовать его без вреда.
В чем суть проблемы
Не стоит сбрасывать со счетов факт, что применение ИИ связано с высоким риском для областей с высокой ценой ошибки, например, при медицинской диагностике или оценке качеств кандидата при найме. ИИ также может стать причиной утечки персональныъх данных, поэтому необходимо срочно найти баланс в оправданном применении ИИ.
На фоне всеобщих восторгов по поводу действительно фантастических успехов нейросетей в выполнении множества творческих задач, все чаще стали возникать вопросы, связанные с безопасностью технологии.
Внезапно выявились неожиданные проблемы, которые затронули значительную часть жителей планеты. Так внезапно оказалось, что ИИ умеет врать и подтасовывать факты, портить программный код и помогает студентам обманывать преподавателей. Новые проблемы потребовали радикально пересмотреть подход к разработке и использованию искусственного интеллекта. Стало ясно, если выпустить джинна из бутылки, загнать его обратно будет непросто.
2023 очевидно станет годом введения новых регламентов, ограничивающих использование искусственного интеллекта в критически важных областях.
Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структури органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы люди и компании могли понять, как использовать его безопасно.
Регуляторы должны разработать законы, которые защитят конфиденциальность людей и закрепят правила для ИИ. Также им предстоит создать систему, которая позволит проводитьаудит ИИ.
В Европе уже начали работу над законом об ИИ. Закон призван регулировать использование ИИ и выделяет четыре категории рисков для прав граждан: неприемлемые, высокие, ограниченные и минимальные риски.
Комиссия ЕС предложила три правовые инициативы, которые помогут создать безопасный ИИ. Они включают в себя создание правовой базы для ИИ, адаптацию правил ответственности и пересмотр отраслевого законодательства. Похожий подход применяется и другими странами.
Администрация Белого дома также опубликовала недавно проект Билля о правах на ИИ, который регулирует разработку, использование и развертывание автоматизированных систем. Он также определяет пять принципов, которые необходимо соблюдать при использовании технологий ИИ.
Безопасность и эффективность
Чтобы организации могли нести ответственность за использование ИИ, необходимо обеспечить безопасную и эффективную систему управления. Она требует наличия знаний об ИИ и цифровой грамотности у Руководства.
Защита от алгоритмической дискриминации
Алгоритмическая дискриминация — принцип, когда автоматизированные системы оказывают неблагоприятное воздействие на людей в зависимости от их расы, цвета кожи, этнической принадлежности, пола, религии и других классификаций, охраняемых законом.
Защита персональных данных
Данные и выводы, связанные с конфиденциальными областями, должны быть защищены. Граждане должны иметь больше свободы действий в отношении того, как используются данные о них. Слежка и мониторинг не должны использоваться в сфере образования, работы, жилья или других областях. Граждане должны иметь доступ к отчетам, подтверждающим защиту их данных.
Прозрачность
Как гражданин, вы имеете право знать, как используется система ИИ и понимать, как она влияет на вашу жизнь. Любое взаимодействие ИИ с людьми должно быть подробно разъяснено людям.
Право на альтернативу
Люди должны иметь возможность отказаться от автоматизированных систем и получить доступ к человеческому рассмотрению и решению вопросов. Человеческие альтернативы должны быть доступными, справедливыми и эффективными.
Канада является лидером в продвижении искусственного интеллекта, но ее консервативная культура может стать причиной снижения темпов внедрения подобных систем. В 2022 году был представлен закон о реализации цифровой хартии, который вводит новые правила для защиты конфиденциальности потребителей, обеспечения безопасного развертывания ИИ и предотвращения мошеннического использования данных. Он также обеспечивает создание должности уполномоченного по ИИ и данным, который будет поддерживать министра инноваций, науки и промышленности в выполнении министерских обязанностей.
Страны Запада только начинают в полной мере осознавать растущие проблемы. В РФ власти оказались более прозорливыми: для регулирования данной области в России еще в 2019 году был утвержден Указ Президента № 490, который устанавливает основные цели регулирования искусственного интеллекта. Он включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение, процессы и сервисы для обработки данных и поиска решений. Для достижения целей, предусмотренных Указом № 490, необходимые правовые условия должны быть созданы до 2024 года.
Таким образом, 2023 год станет годом введения новых регламентов, ограничивающих использование искусственного интеллекта в критически важных областях. Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структур и органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы и люди и компании могли понять, как использовать его без вреда.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

Это была самая позорная и страшная из всех видов казней
Воинов империи Хань обнаружили расчлененными в братской могиле 2000-летней давности на территории Монголии....

Тройной ядовитый укус: мутация смертельной змеи из Австралии может переписать правила эволюции?
Она впрыскивает двойную дозу яда за 0,15 секунды. Поэтому ее боятся даже герпетологи....

Найдена энергетическая мегабомба в недрах планеты
Ученые говорят: залежей водорода столько, что его хватит на многие тысячи лет....

Учёные говорят, что обнаружили огромный тайный город под египетскими пирамидами
Проверять пока не разрешили....

Голландский подросток внезапно забыл родной язык и перешел на английский
Синдром чужого языка: у ученых пока нет никаких точных объяснений....

Ушел из жизни обезьяний Эйнштейн, бонобо Канзи
Он перевернул науку, показал, что язык — это не только слова, и научил, что значит быть другом....

8000 км через весь Тихий океан… на ветках сломанного дерева
От пустынь США до тропиков Фиджи: игуаны доказали, что для них нет ничего невозможного....

Марс преподнёс сразу два открытия: шокирующие шарики и органические молекулы
На Красной планете обнаружили органические молекулы беспрецедентного размера и очень странные сферы....

Йеллоустонский детектив: генетики раскрыли главную тайну бизонов
Как гиганты из двух «разных миров» сумели слиться в единое стадо....

Любят бездыханных: зачем и как синеполосые осьминоги парализуют своих самок
Ответ и на поверхности, и в глубине инстинктов....

Почему стеклянные бутылки лопаются в морозилке? Это не то, что мы думали
Роль играет… жидкость, запертая в жидкости....

По сути — покрышка: наконец-то раскрыта страшная правда о жевательных резинках
Жвачка — это самое настоящее загрязнение пластиком, а не просто проблема мусора....

Эксперты говорят, что космос вот-вот станет самым настоящим Диким Западом
Пока страны спорят о договорах, частники захватывают лунные территории и запускают спутники без ограничений....

Прощай, «Фотошоп»? Новый ИИ от Google редактирует фото после текстовых запросов
Ещё один шаг в развитии генеративных технологий....

Планшет, пролежавший в Темзе пять лет, помог раскрыть серию запутанных преступлений
Эксперты говорят: даже вода не смогла стереть цифровые следы....

Переписываем историю: Стоунхендж больше не самый древний круглый памятник в Англии
Археологи доказали: комплекс Флэгстоунс является его «дедушкой», так как старше на 200 лет....