ВСЛУХ

Австралийка нашла себя в порно, в котором не снималась

Австралийка нашла себя в порно, в котором не снималась
Понятие deepfake дословно означает «глубокая подделка», но обычно используют просто транслитерацию «дипфейк». Порнография, созданная с использованием этой технологии, начала распространяться по интернету несколько лет назад. Так, пользователь площадки Reddit как-то поделился роликами, в которых лица знаменитостей приделывали к телам порноактёров.


С тех пор создатели дипфейков распространяли такие видео и картинки с обликом влиятельных людей, журналистов и знаменитостей. Тысячи непристойных фальшивок попали на множество веб-сайтов. По словам экспертов, проблема росла по мере упрощения технологии подделок. И ситуация может ухудшиться с развитием генеративных инструментов искусственного интеллекта (ИИ), которые обучаются на миллиардах изображений из интернета и выдают новый контент, используя существующие данные.

Реальность такова, что технология будет продолжать распространяться, продолжит развиваться и станет такой же простой, как нажатие кнопки

— Адам Додж, основатель EndTAB, группы против злоупотребления технологиями.

Ноэль Мартин, 28-летняя девушка из Перта, Австралия, испытала на себе суровую реальность. Она обнаружила поддельное порно со своим лицом ещё 10 лет назад, когда однажды из любопытства искала в Google собственные изображения. По сей день неизвестно, кто создал непристойное «фото» и видео с её мнимым участием. Австралийка подозревает, что кто-то, вероятно, использовал снимок с её странички в соцсети.

В ужасе Ноэль Мартин несколько лет обращалась на различные веб-сайты, пытаясь удалить дипфейки. Некоторые не ответили. Другие удалили визуальную клевету, но девушка вскоре опять нашла её. И была вынуждена в итоге признать, что победить в этой борьбе попросту невозможно.

По её словам, чем больше она возмущалась, тем больше обострялась проблема. Некоторые люди даже говорили ей, что её манера одеваться и фото в социальных сетях провоцировали преследование. То есть, по сути, обвиняли в непристойном контенте её, а не его неведомых создателей.

В конце концов, Мартин обратила своё внимание на законодательство. И выступила как активистка за принятие в Австралии национального закона, который оштрафует компании на 555 тыс. австралийских долларов, то есть на 370 706 долларов США, если сайты не выполнят требования регулирующих органов об удалении такого контента.

Но управлять интернетом практически невозможно. И в разных странах действуют собственные законы на этот счёт. Ноэль Мартин, теперь уже адвокат и исследователь права в Университете Западной Австралии, говорит, что, по её мнению, проблему нужно контролировать с помощью какого-то глобального решения.

Тем временем, некоторые разработчики ИИ говорят, что уже ограничивают доступ к откровенным изображениям. Так, компания OpenAI заявила, что удалила взрослый контент из данных, используемых для генерации изображений DALL-E. И его пользователи больше не смогут создавать такие картинки. Компания также фильтрует запросы и заявляет, что блокирует пользователям создание изображений знаменитостей и известных политиков с помощью ИИ.

Midjourney, другая модель обучения ИИ, блокирует использование определённых ключевых слов и призывает пользователей жаловаться на проблемный контент модераторам.

А стартап Stability AI в ноябре выпустил обновление, которое устраняет возможность создавать откровенные изображения с помощью своего генератора изображений Stable Diffusion.

Автор:

Использованы фотографии: noellemartin.org

Мы в Мы в Яндекс Дзен
Stable Diffusion и Midjourney подверглись иску о нарушении авторских правТоп странных, но крутых вопросов современной физики