ВСЛУХ

Deepfake и текстовые описания: как они влияют на формирование ложных воспоминаний о фильмах

Deepfake и текстовые описания: как они влияют на формирование ложных воспоминаний о фильмах
В новом исследовании фокус-группе показали вместо оригинальных фильмов видеоролики с использованием Deepfake, и это заставило участников «вспомнить» несуществующие кинокартины. Помимо этого в эксперименте использовались и простые текстовые описания фильмов. Результат оказался аналогичным — у участников сформировались ложные воспоминания о просмотренных кинолентах.


Гиллиан Мерфи из Университетского колледжа Корка в Ирландии совместно с исследовательским центром Science Foundation Ireland по программному обеспечению представили эти результаты в журнале PLOS ONE.

Deepfake видео — это ролики, созданные с помощью искусственного интеллекта, в которых лицо и голос участников могут быть заменены на чужие. Инструменты для создания Deepfake в последнее время стали намного дешевле и доступнее, что, с одной стороны, расширяет возможности применения технологии в творчестве, но с другой — имеет множество потенциальных рисков, таких как распространение дезинформации и манипуляция воспоминаниями зрителей.

Суть исследования


Чтобы рассмотреть потенциальные риски, исследователи предложили 436 участникам пройти онлайн-опрос. В нем показывались Deepfake-видеоролики с участием актеров, которых не было в оригинальном касте. Например, вместо Киану Ривза персонажа Нео из «Матрицы» «сыграл» Уилл Смит. В фильм «Сияние» добавили Брэда Питта и Анжелину Джоли. Помимо этого исказили фильмы «Индиана Джонс» и «Капитан Марвел».

Также участники просмотрели отрывки реальных ремейков, например, «Чарли и шоколадная фабрика», «Вспомнить всё», «Кэрри» и «Лара Крофт: Расхитительница гробниц». В некоторых случаях вместо видео предлагались текстовые описания несуществующих фильмов. Участникам не сообщали, что в исследовании используется Deepfake, до более поздних этапов опроса.

По результатам эксперимента и Deepfake, и описания вызывали ложные воспоминания о несуществующих ремейках. При этом в среднем 49 процентов участников считали каждую видеозапись настоящей. Многие сообщили, что помнят искусственно созданные ремейки лучше, чем оригиналы. Тем не менее текстовые описания дали примерно такой же результат. Это позволяет предположить, что Deepfake не сильно выделяется на фоне других инструментов искажения памяти.

Опасен ли Deepfake для общества?


Большинство участников опроса отнеслись к технологии Deepfake негативно, отмечая, что замена актеров таким образом плохо сказывается на художественной целостности кинокартины.

Исследователи отмечают, что несмотря на то, что Deepfake вызывает у общества озабоченность по многим причинам, данная технология не сильно выделяется на фоне других методов искажения нашего представления о прошлом. Хотя Deepfake в этом эксперименте имеет высокие показатели по формированию ложных воспоминаний у участников, исследователи достигли того же результата с помощью простого текста. Таким образом можно сделать вывод, что нам не нужны технические новшества для искажения памяти, люди и так умеют создавать ложные воспоминания с помощью более простых средств.

Автор:

Мы в Мы в Яндекс Дзен
Родились первые дети, зачатые с помощью роботаЛучшие роботы с Всемирной агропромышленной выставки – 2023

Рисунки по кайфу

Рисунки по кайфу

Ученые определили, что древние перуанские художники рисовали на скалах, приняв галлюциногенные вещества....
  • 415
Нас ждет новая пандемия?

Нас ждет новая пандемия?

Африка в очередной раз подтвердила, что она — инкубатор смертельно опасных вирусов....
  • 335