
Австралийка нашла себя в порно, в котором не снималась
Понятие deepfake дословно означает «глубокая подделка», но обычно используют просто транслитерацию «дипфейк». Порнография, созданная с использованием этой технологии, начала распространяться по интернету несколько лет назад. Так, пользователь площадки Reddit как-то поделился роликами, в которых лица знаменитостей приделывали к телам порноактёров.
С тех пор создатели дипфейков распространяли такие видео и картинки с обликом влиятельных людей, журналистов и знаменитостей. Тысячи непристойных фальшивок попали на множество веб-сайтов. По словам экспертов, проблема росла по мере упрощения технологии подделок. И ситуация может ухудшиться с развитием генеративных инструментов искусственного интеллекта (ИИ), которые обучаются на миллиардах изображений из интернета и выдают новый контент, используя существующие данные.
— Адам Додж, основатель EndTAB, группы против злоупотребления технологиями.
Ноэль Мартин, 28-летняя девушка из Перта, Австралия, испытала на себе суровую реальность. Она обнаружила поддельное порно со своим лицом ещё 10 лет назад, когда однажды из любопытства искала в Google собственные изображения. По сей день неизвестно, кто создал непристойное «фото» и видео с её мнимым участием. Австралийка подозревает, что кто-то, вероятно, использовал снимок с её странички в соцсети.
В ужасе Ноэль Мартин несколько лет обращалась на различные веб-сайты, пытаясь удалить дипфейки. Некоторые не ответили. Другие удалили визуальную клевету, но девушка вскоре опять нашла её. И была вынуждена в итоге признать, что победить в этой борьбе попросту невозможно.
По её словам, чем больше она возмущалась, тем больше обострялась проблема. Некоторые люди даже говорили ей, что её манера одеваться и фото в социальных сетях провоцировали преследование. То есть, по сути, обвиняли в непристойном контенте её, а не его неведомых создателей.
В конце концов, Мартин обратила своё внимание на законодательство. И выступила как активистка за принятие в Австралии национального закона, который оштрафует компании на 555 тыс. австралийских долларов, то есть на 370 706 долларов США, если сайты не выполнят требования регулирующих органов об удалении такого контента.
Но управлять интернетом практически невозможно. И в разных странах действуют собственные законы на этот счёт. Ноэль Мартин, теперь уже адвокат и исследователь права в Университете Западной Австралии, говорит, что, по её мнению, проблему нужно контролировать с помощью какого-то глобального решения.
Тем временем, некоторые разработчики ИИ говорят, что уже ограничивают доступ к откровенным изображениям. Так, компания OpenAI заявила, что удалила взрослый контент из данных, используемых для генерации изображений DALL-E. И его пользователи больше не смогут создавать такие картинки. Компания также фильтрует запросы и заявляет, что блокирует пользователям создание изображений знаменитостей и известных политиков с помощью ИИ.
Midjourney, другая модель обучения ИИ, блокирует использование определённых ключевых слов и призывает пользователей жаловаться на проблемный контент модераторам.
А стартап Stability AI в ноябре выпустил обновление, которое устраняет возможность создавать откровенные изображения с помощью своего генератора изображений Stable Diffusion.
С тех пор создатели дипфейков распространяли такие видео и картинки с обликом влиятельных людей, журналистов и знаменитостей. Тысячи непристойных фальшивок попали на множество веб-сайтов. По словам экспертов, проблема росла по мере упрощения технологии подделок. И ситуация может ухудшиться с развитием генеративных инструментов искусственного интеллекта (ИИ), которые обучаются на миллиардах изображений из интернета и выдают новый контент, используя существующие данные.
Реальность такова, что технология будет продолжать распространяться, продолжит развиваться и станет такой же простой, как нажатие кнопки
— Адам Додж, основатель EndTAB, группы против злоупотребления технологиями.
Ноэль Мартин, 28-летняя девушка из Перта, Австралия, испытала на себе суровую реальность. Она обнаружила поддельное порно со своим лицом ещё 10 лет назад, когда однажды из любопытства искала в Google собственные изображения. По сей день неизвестно, кто создал непристойное «фото» и видео с её мнимым участием. Австралийка подозревает, что кто-то, вероятно, использовал снимок с её странички в соцсети.
В ужасе Ноэль Мартин несколько лет обращалась на различные веб-сайты, пытаясь удалить дипфейки. Некоторые не ответили. Другие удалили визуальную клевету, но девушка вскоре опять нашла её. И была вынуждена в итоге признать, что победить в этой борьбе попросту невозможно.
По её словам, чем больше она возмущалась, тем больше обострялась проблема. Некоторые люди даже говорили ей, что её манера одеваться и фото в социальных сетях провоцировали преследование. То есть, по сути, обвиняли в непристойном контенте её, а не его неведомых создателей.
В конце концов, Мартин обратила своё внимание на законодательство. И выступила как активистка за принятие в Австралии национального закона, который оштрафует компании на 555 тыс. австралийских долларов, то есть на 370 706 долларов США, если сайты не выполнят требования регулирующих органов об удалении такого контента.
Но управлять интернетом практически невозможно. И в разных странах действуют собственные законы на этот счёт. Ноэль Мартин, теперь уже адвокат и исследователь права в Университете Западной Австралии, говорит, что, по её мнению, проблему нужно контролировать с помощью какого-то глобального решения.
Тем временем, некоторые разработчики ИИ говорят, что уже ограничивают доступ к откровенным изображениям. Так, компания OpenAI заявила, что удалила взрослый контент из данных, используемых для генерации изображений DALL-E. И его пользователи больше не смогут создавать такие картинки. Компания также фильтрует запросы и заявляет, что блокирует пользователям создание изображений знаменитостей и известных политиков с помощью ИИ.
Midjourney, другая модель обучения ИИ, блокирует использование определённых ключевых слов и призывает пользователей жаловаться на проблемный контент модераторам.
А стартап Stability AI в ноябре выпустил обновление, которое устраняет возможность создавать откровенные изображения с помощью своего генератора изображений Stable Diffusion.
- Дмитрий Ладыгин
- noellemartin.org
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

NASA объявило: Найдены самые убедительные доказательства существования жизни на Марсе
Ученые тем временем выясняют, как могли выглядеть древние жители Красной планеты...

16-тонный саркофаг, заполненный сокровищами, может подтвердить одну из самых таинственных и кровавых легенд древнего Китая
Какой секрет хранила эта гробница, что оставалась единственной нетронутой два тысячелетия?...

Ученый утверждает: у него есть доказательства, что мы живем в матрице
По словам Мелвина Вопсона, подсказки он нашел в ДНК, расширении Вселенной и фундаментальных законах физики...

Новая операция по объединению людей и животных может подарить… вечную жизнь
Медики признаются: уже сейчас можно сделать новое тело человека. Но один орган пока не поддается науке...

Выяснилось, что полное восстановление озонового слоя закончится глобальной катастрофой
Как так вышло, что в борьбе за экологию человечество сделало себе еще хуже?...

Оказывается, решение проблемы выбоин на дорогах существует уже почти 100 лет
Почему технология, забытая полвека назад, возвращается и становится очень популярной?...

Разгадка феномена «копченых» мумий может переписать древнейшую историю человечества
Поразительно: этот погребальный обычай, возможно, используют уже 42 000 лет подряд!...

К 2035 году сектор Газа должен стать… самым продвинутым регионом на планете под управлением ИИ
По словам экспертов, в дерзком эксперименте за 100 млрд долларов есть только один большой вопрос: Куда выселить местное население?...

Не украли, а «присвоили»: историки выяснили, как и откуда семья Марко Поло раздобыла главный символ Венеции
Данные, полученные из «ДНК» льва святого Марка, помогли распутать детектив длиной в 700 лет...

Каждый год, как расписанию, на Марсе образуется странное облако
Долгое время ученые не могли разгадать эту аномалию, но теперь ответ наконец-то найден!...