Глобальный вопрос 2022: как не допустить непоправимых проблем при использовании ИИ?
Искусственный интеллект в уходящем году продемонстрировал взрывной потенциал прогнозирования событий, включая помощь фермерам, предсказание природных катаклизмов и эпидемий. Автоматизированные системы сегодня приносят немало пользы. Их задействуют для принятия долгосрочных решений и переосмысления конкретных ситуаций. Однако этичное использование технологий ИИ критически важно для достижения ожидаемых результатов.
Не стоит сбрасывать со счетов факт, что применение ИИ связано с высоким риском для областей с высокой ценой ошибки, например, при медицинской диагностике или оценке качеств кандидата при найме. ИИ также может стать причиной утечки персональныъх данных, поэтому необходимо срочно найти баланс в оправданном применении ИИ.
На фоне всеобщих восторгов по поводу действительно фантастических успехов нейросетей в выполнении множества творческих задач, все чаще стали возникать вопросы, связанные с безопасностью технологии.
Внезапно выявились неожиданные проблемы, которые затронули значительную часть жителей планеты. Так внезапно оказалось, что ИИ умеет врать и подтасовывать факты, портить программный код и помогает студентам обманывать преподавателей. Новые проблемы потребовали радикально пересмотреть подход к разработке и использованию искусственного интеллекта. Стало ясно, если выпустить джинна из бутылки, загнать его обратно будет непросто.
Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структури органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы люди и компании могли понять, как использовать его безопасно.
Регуляторы должны разработать законы, которые защитят конфиденциальность людей и закрепят правила для ИИ. Также им предстоит создать систему, которая позволит проводитьаудит ИИ.
В Европе уже начали работу над законом об ИИ. Закон призван регулировать использование ИИ и выделяет четыре категории рисков для прав граждан: неприемлемые, высокие, ограниченные и минимальные риски.
Комиссия ЕС предложила три правовые инициативы, которые помогут создать безопасный ИИ. Они включают в себя создание правовой базы для ИИ, адаптацию правил ответственности и пересмотр отраслевого законодательства. Похожий подход применяется и другими странами.
Администрация Белого дома также опубликовала недавно проект Билля о правах на ИИ, который регулирует разработку, использование и развертывание автоматизированных систем. Он также определяет пять принципов, которые необходимо соблюдать при использовании технологий ИИ.
Безопасность и эффективность
Чтобы организации могли нести ответственность за использование ИИ, необходимо обеспечить безопасную и эффективную систему управления. Она требует наличия знаний об ИИ и цифровой грамотности у Руководства.
Защита от алгоритмической дискриминации
Алгоритмическая дискриминация — принцип, когда автоматизированные системы оказывают неблагоприятное воздействие на людей в зависимости от их расы, цвета кожи, этнической принадлежности, пола, религии и других классификаций, охраняемых законом.
Защита персональных данных
Данные и выводы, связанные с конфиденциальными областями, должны быть защищены. Граждане должны иметь больше свободы действий в отношении того, как используются данные о них. Слежка и мониторинг не должны использоваться в сфере образования, работы, жилья или других областях. Граждане должны иметь доступ к отчетам, подтверждающим защиту их данных.
Прозрачность
Как гражданин, вы имеете право знать, как используется система ИИ и понимать, как она влияет на вашу жизнь. Любое взаимодействие ИИ с людьми должно быть подробно разъяснено людям.
Право на альтернативу
Люди должны иметь возможность отказаться от автоматизированных систем и получить доступ к человеческому рассмотрению и решению вопросов. Человеческие альтернативы должны быть доступными, справедливыми и эффективными.
Канада является лидером в продвижении искусственного интеллекта, но ее консервативная культура может стать причиной снижения темпов внедрения подобных систем. В 2022 году был представлен закон о реализации цифровой хартии, который вводит новые правила для защиты конфиденциальности потребителей, обеспечения безопасного развертывания ИИ и предотвращения мошеннического использования данных. Он также обеспечивает создание должности уполномоченного по ИИ и данным, который будет поддерживать министра инноваций, науки и промышленности в выполнении министерских обязанностей.
Страны Запада только начинают в полной мере осознавать растущие проблемы. В РФ власти оказались более прозорливыми: для регулирования данной области в России еще в 2019 году был утвержден Указ Президента № 490, который устанавливает основные цели регулирования искусственного интеллекта. Он включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение, процессы и сервисы для обработки данных и поиска решений. Для достижения целей, предусмотренных Указом № 490, необходимые правовые условия должны быть созданы до 2024 года.
Таким образом, 2023 год станет годом введения новых регламентов, ограничивающих использование искусственного интеллекта в критически важных областях. Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структур и органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы и люди и компании могли понять, как использовать его без вреда.
В чем суть проблемы
Не стоит сбрасывать со счетов факт, что применение ИИ связано с высоким риском для областей с высокой ценой ошибки, например, при медицинской диагностике или оценке качеств кандидата при найме. ИИ также может стать причиной утечки персональныъх данных, поэтому необходимо срочно найти баланс в оправданном применении ИИ.
На фоне всеобщих восторгов по поводу действительно фантастических успехов нейросетей в выполнении множества творческих задач, все чаще стали возникать вопросы, связанные с безопасностью технологии.
Внезапно выявились неожиданные проблемы, которые затронули значительную часть жителей планеты. Так внезапно оказалось, что ИИ умеет врать и подтасовывать факты, портить программный код и помогает студентам обманывать преподавателей. Новые проблемы потребовали радикально пересмотреть подход к разработке и использованию искусственного интеллекта. Стало ясно, если выпустить джинна из бутылки, загнать его обратно будет непросто.
2023 очевидно станет годом введения новых регламентов, ограничивающих использование искусственного интеллекта в критически важных областях.
Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структури органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы люди и компании могли понять, как использовать его безопасно.
Регуляторы должны разработать законы, которые защитят конфиденциальность людей и закрепят правила для ИИ. Также им предстоит создать систему, которая позволит проводитьаудит ИИ.
В Европе уже начали работу над законом об ИИ. Закон призван регулировать использование ИИ и выделяет четыре категории рисков для прав граждан: неприемлемые, высокие, ограниченные и минимальные риски.
Комиссия ЕС предложила три правовые инициативы, которые помогут создать безопасный ИИ. Они включают в себя создание правовой базы для ИИ, адаптацию правил ответственности и пересмотр отраслевого законодательства. Похожий подход применяется и другими странами.
Администрация Белого дома также опубликовала недавно проект Билля о правах на ИИ, который регулирует разработку, использование и развертывание автоматизированных систем. Он также определяет пять принципов, которые необходимо соблюдать при использовании технологий ИИ.
Безопасность и эффективность
Чтобы организации могли нести ответственность за использование ИИ, необходимо обеспечить безопасную и эффективную систему управления. Она требует наличия знаний об ИИ и цифровой грамотности у Руководства.
Защита от алгоритмической дискриминации
Алгоритмическая дискриминация — принцип, когда автоматизированные системы оказывают неблагоприятное воздействие на людей в зависимости от их расы, цвета кожи, этнической принадлежности, пола, религии и других классификаций, охраняемых законом.
Защита персональных данных
Данные и выводы, связанные с конфиденциальными областями, должны быть защищены. Граждане должны иметь больше свободы действий в отношении того, как используются данные о них. Слежка и мониторинг не должны использоваться в сфере образования, работы, жилья или других областях. Граждане должны иметь доступ к отчетам, подтверждающим защиту их данных.
Прозрачность
Как гражданин, вы имеете право знать, как используется система ИИ и понимать, как она влияет на вашу жизнь. Любое взаимодействие ИИ с людьми должно быть подробно разъяснено людям.
Право на альтернативу
Люди должны иметь возможность отказаться от автоматизированных систем и получить доступ к человеческому рассмотрению и решению вопросов. Человеческие альтернативы должны быть доступными, справедливыми и эффективными.
Канада является лидером в продвижении искусственного интеллекта, но ее консервативная культура может стать причиной снижения темпов внедрения подобных систем. В 2022 году был представлен закон о реализации цифровой хартии, который вводит новые правила для защиты конфиденциальности потребителей, обеспечения безопасного развертывания ИИ и предотвращения мошеннического использования данных. Он также обеспечивает создание должности уполномоченного по ИИ и данным, который будет поддерживать министра инноваций, науки и промышленности в выполнении министерских обязанностей.
Страны Запада только начинают в полной мере осознавать растущие проблемы. В РФ власти оказались более прозорливыми: для регулирования данной области в России еще в 2019 году был утвержден Указ Президента № 490, который устанавливает основные цели регулирования искусственного интеллекта. Он включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение, процессы и сервисы для обработки данных и поиска решений. Для достижения целей, предусмотренных Указом № 490, необходимые правовые условия должны быть созданы до 2024 года.
Таким образом, 2023 год станет годом введения новых регламентов, ограничивающих использование искусственного интеллекта в критически важных областях. Эти правила помогут людям и компаниям более безопасно использовать хорошие идеи для создания ИИ. Для того, чтобы эти правила работали, предстоит разработать с нуля ряд структур и органов управления и контроля. Кроме того, необходимо будет на практике внедрить этические принципы для ИИ, чтобы и люди и компании могли понять, как использовать его без вреда.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Рассекречены подробности убийства Кирова: данные из архива ФСО разрушили официальную версию как карточный домик
Эксперты говорят: Сталин был совершенно не при чем. Но он использовал эту бытовую драму в своих политических интересах...
Найдена могила… легендарного д’Артаньяна: какие артефакты обнаружили внутри?
Почему ученые вынуждены ждать окончательного признания этой исторической сенсации?...
У группы Дятлова все-таки был шанс: ИИ вычислил единственный вариант, когда люди могли спастись
Оказалось, что судьба туристов была решена уже в первые три минуты трагедии. И нейросеть нашла как именно...
Украина вообще не имеет шансов: французский историк, предсказавший распад СССР, не сомневается, что Россия победит
По словам эксперта, Запад исчерпал себя как цивилизация, а потому обречен на неизбежное поражение. Это необратимый процесс...
ФСБ рассекретила документы по процессу 1950 года: за что судили немецких военных?
Почему информация 75 лет находилась под грифом «Совершенно секретно», а День Победы не праздновали до 1965 года?...
Таинственный двойник обнаружился у египетского Сфинкса. И это только часть потрясающего открытия
Итальянские ученые, обнаружившие археологическую сенсацию, уверены: большую часть истории Древнего Египта придется переписать...
Анализ ДНК с Туринской плащаницы сильно удивил ученых, точнее, даже озадачил
Эксперты говорят: выделить «геном Христа» вряд ли получится. И вообще, этот артефакт никогда не был в Святой Земле. Как же так?...
Астронавт NASA внезапно потерял способность говорить в космосе, и врачи не знают почему
Эксперты говорят: инцидент на орбите может сильно не только космическую медицину, но вообще полеты на Луну и Марс...
Советские МиГи… на самой секретной базе США: эта история стала публичной только в 2000-х годах
Эксперт рассказал, что делали самолеты из СССР в «Зоне-51» и почему американские военные зауважали русских конструкторов...
Страшнее Хиросимы и Нагасаки: как американская авиация превратила Японию в одни сплошные пылающие руины
Токио от зажигательных бомб горел так сильно, что люди, прятавшиеся в каналах и прудах, варились заживо...
Колумба могут оправдать… древние детские кости из Юго-Восточной Азии?
Что рассказали 309 скелетов во Вьетнаме? И почему история сифилиса — это очень непростая тема?...
ЦРУ массово создавало зомби-убийц: новое расследование подтвердило это еще раз
Эксперт уверен: убийца Кеннеди и самый известный американский маньяк — это продукты тогдашних экспериментов над сознанием...
Тайна 12 000-летнего города у берегов США: ученый-любитель уверен, что нашел затонувший мегаполис неизвестной цивилизации
Кто победит: официальная наука или энтузиазм непрофессионала? Разбираемся в этой запутанной истории...