Deepfake и текстовые описания: как они влияют на формирование ложных воспоминаний о фильмах
В новом исследовании фокус-группе показали вместо оригинальных фильмов видеоролики с использованием Deepfake, и это заставило участников «вспомнить» несуществующие кинокартины. Помимо этого в эксперименте использовались и простые текстовые описания фильмов. Результат оказался аналогичным — у участников сформировались ложные воспоминания о просмотренных кинолентах.
Гиллиан Мерфи из Университетского колледжа Корка в Ирландии совместно с исследовательским центром Science Foundation Ireland по программному обеспечению представили эти результаты в журнале PLOS ONE.
Deepfake видео — это ролики, созданные с помощью искусственного интеллекта, в которых лицо и голос участников могут быть заменены на чужие. Инструменты для создания Deepfake в последнее время стали намного дешевле и доступнее, что, с одной стороны, расширяет возможности применения технологии в творчестве, но с другой — имеет множество потенциальных рисков, таких как распространение дезинформации и манипуляция воспоминаниями зрителей.
Чтобы рассмотреть потенциальные риски, исследователи предложили 436 участникам пройти онлайн-опрос. В нем показывались Deepfake-видеоролики с участием актеров, которых не было в оригинальном касте. Например, вместо Киану Ривза персонажа Нео из «Матрицы» «сыграл» Уилл Смит. В фильм «Сияние» добавили Брэда Питта и Анжелину Джоли. Помимо этого исказили фильмы «Индиана Джонс» и «Капитан Марвел».
Также участники просмотрели отрывки реальных ремейков, например, «Чарли и шоколадная фабрика», «Вспомнить всё», «Кэрри» и «Лара Крофт: Расхитительница гробниц». В некоторых случаях вместо видео предлагались текстовые описания несуществующих фильмов. Участникам не сообщали, что в исследовании используется Deepfake, до более поздних этапов опроса.
По результатам эксперимента и Deepfake, и описания вызывали ложные воспоминания о несуществующих ремейках. При этом в среднем 49 процентов участников считали каждую видеозапись настоящей. Многие сообщили, что помнят искусственно созданные ремейки лучше, чем оригиналы. Тем не менее текстовые описания дали примерно такой же результат. Это позволяет предположить, что Deepfake не сильно выделяется на фоне других инструментов искажения памяти.
Большинство участников опроса отнеслись к технологии Deepfake негативно, отмечая, что замена актеров таким образом плохо сказывается на художественной целостности кинокартины.
Исследователи отмечают, что несмотря на то, что Deepfake вызывает у общества озабоченность по многим причинам, данная технология не сильно выделяется на фоне других методов искажения нашего представления о прошлом. Хотя Deepfake в этом эксперименте имеет высокие показатели по формированию ложных воспоминаний у участников, исследователи достигли того же результата с помощью простого текста. Таким образом можно сделать вывод, что нам не нужны технические новшества для искажения памяти, люди и так умеют создавать ложные воспоминания с помощью более простых средств.
Гиллиан Мерфи из Университетского колледжа Корка в Ирландии совместно с исследовательским центром Science Foundation Ireland по программному обеспечению представили эти результаты в журнале PLOS ONE.
Deepfake видео — это ролики, созданные с помощью искусственного интеллекта, в которых лицо и голос участников могут быть заменены на чужие. Инструменты для создания Deepfake в последнее время стали намного дешевле и доступнее, что, с одной стороны, расширяет возможности применения технологии в творчестве, но с другой — имеет множество потенциальных рисков, таких как распространение дезинформации и манипуляция воспоминаниями зрителей.
Суть исследования
Чтобы рассмотреть потенциальные риски, исследователи предложили 436 участникам пройти онлайн-опрос. В нем показывались Deepfake-видеоролики с участием актеров, которых не было в оригинальном касте. Например, вместо Киану Ривза персонажа Нео из «Матрицы» «сыграл» Уилл Смит. В фильм «Сияние» добавили Брэда Питта и Анжелину Джоли. Помимо этого исказили фильмы «Индиана Джонс» и «Капитан Марвел».
Также участники просмотрели отрывки реальных ремейков, например, «Чарли и шоколадная фабрика», «Вспомнить всё», «Кэрри» и «Лара Крофт: Расхитительница гробниц». В некоторых случаях вместо видео предлагались текстовые описания несуществующих фильмов. Участникам не сообщали, что в исследовании используется Deepfake, до более поздних этапов опроса.
По результатам эксперимента и Deepfake, и описания вызывали ложные воспоминания о несуществующих ремейках. При этом в среднем 49 процентов участников считали каждую видеозапись настоящей. Многие сообщили, что помнят искусственно созданные ремейки лучше, чем оригиналы. Тем не менее текстовые описания дали примерно такой же результат. Это позволяет предположить, что Deepfake не сильно выделяется на фоне других инструментов искажения памяти.
Опасен ли Deepfake для общества?
Большинство участников опроса отнеслись к технологии Deepfake негативно, отмечая, что замена актеров таким образом плохо сказывается на художественной целостности кинокартины.
Исследователи отмечают, что несмотря на то, что Deepfake вызывает у общества озабоченность по многим причинам, данная технология не сильно выделяется на фоне других методов искажения нашего представления о прошлом. Хотя Deepfake в этом эксперименте имеет высокие показатели по формированию ложных воспоминаний у участников, исследователи достигли того же результата с помощью простого текста. Таким образом можно сделать вывод, что нам не нужны технические новшества для искажения памяти, люди и так умеют создавать ложные воспоминания с помощью более простых средств.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Новое исследование показало: Стоунхендж столетиями «водил за нос». Похоже, историю опять придется переписывать
Оказалось, что сенсация скрывалась в огромном круге, состоящем из загадочных шахт...
Роковая ошибка древних врачей: Почему современные ученые считают, что Александра Македонского похоронили заживо?
Он слышал плач своих полководцев и видел приготовления к бальзамированию, но не мог пошевелиться. Тело великого царя стало его собственным гробом...
Людовик XIV умер совсем не от гангрены: ученые сумели раскрыть истину лишь 310 лет спустя
Эксперты говорят: французский король был обречен. Медикам того времени была совершенно неизвестна его болезнь...
Он все слышал, но не мог пошевелиться: Жуткая правда о том, почему тело Александра Македонского не разлагалось
Великий царь стал заложником собственной плоти. Диагноз, который поставили спустя 2300 лет, объясняет все: и «чудо» нетленности, и страшную смерть....
Необъяснимые аномалии в тайге на Дальнем Востоке: читаем походные дневники военного разведчика и писателя Владимира Арсеньева
Часть первая: свет в ночном море, мираж «фата-моргана» и почти моментальное замерзание воды...
ЦРУ, море в пустыне и нефть: кто и зачем остановил проект Египта на 60 лет?
Часть вторая: Холодная война, 200 ядерных взрывов и 15 миллиардов, которые могут все изменить...
Египет хотел создать МОРЕ в пустыне Сахара: почему проект заморозили на 60 лет?
Часть первая: Реальный шанс спастись от всемирного потопа...
Российский ученый уверен, что максимально приблизился к разгадке тайны шаровой молнии
Похоже, наука ошибалась: это не плазменный сгусток, а «живой кристалл» из частиц-призраков...
Что стоит за таинственными аномалиями в дальневосточной тайге? Продолжаем читать походные дневники военного разведчика и писателя Владимира Арсеньева
Часть вторая: снежная гроза, феномен моретрясения и встреча со «снежным человеком»...
Загадочная письменность Б из пещер у Мертвого моря наконец-то расшифрована
Ученые «ломали» древний шифр эпохи Христа более 70 лет, но результат разочаровал многих. Почему?...
Меньше трех дней до конца света на орбите: почему программа CRASH Clock бьет тревогу?
Сотрудники Маска уверяют, что у них все под контролем. Но эксперты сравнивают орбиту с карточным домиком. Кто же прав?...
Алкогольная цивилизация: древние люди освоили земледелие... ради пива
Ученые давно подозревали это, а новые находки только подлили масла в огонь «пивной» версии...