
Как победить ложь в интернете: новая функция Google «Об этом изображении»
В современном интернете мы часто сталкиваемся с поддельными изображениями, которые могут обманывать нас или даже наносить вред. Особенно опасны дипфейки — это видео или фото, созданные с помощью искусственного интеллекта, которые подменяют лица, голоса или действия людей. Дипфейки могут влиять на наше мнение, эмоции и поведение, а также использоваться для целей дезинформации, шантажа, порнографии или политики.
Как же защитить себя от таких угроз? Компания Google разработала новую функцию «Об этом изображении», которая позволяет пользователям получать больше информации об изображениях, которые они видят в интернете. В этой статье мы расскажем, как эта функция работает, как она помогает распознавать дипфейки и какие еще технологии используются для борьбы с цифровой манипуляцией.
Дипфейки — это видео или фото, которые создаются с помощью искусственного интеллекта. Для этого используются специальные алгоритмы, которые называются генеративно-состязательными сетями (GAN). Эти сети состоят из двух нейронных сетей, которые соревнуются друг с другом: одна сеть генерирует поддельное изображение, а другая сеть пытается определить, насколько оно реалистично. Таким образом, сети постоянно учатся и улучшают свои результаты.
Дипфейки бывают разных видов: например, можно поменять лица людей на видео (face swap), изменить то, что они говорят (lip sync), скопировать их голос (voice cloning) или создать полностью синтетические лица и тела (digital avatars). С помощью дипфейков можно также «оживить» умерших людей или животных, как это было сделано с художником Сальвадором Дали или кошкой Лил Баб.
Дипфейки могут быть использованы не только для развлечения или искусства, но и для злых целей. В том числе для распространения дезинформации, шантажа, порнографии или политического вмешательства. Дипфейки могут заставить нас верить, что кто-то говорит или делает то, что он на самом деле не говорил или не делал.
Например, в ходе конфликта между Россией и Украиной в интернете появились дипфейки с президентами обеих стран, которые призывали своих солдат сдаться. Эти дипфейки были распространены через социальные сети и даже взломанные телеканалы. Хотя видеоролики были быстро опровергнуты и раскритикованы за низкое качество, они могли вызвать путаницу, недоверие и страх среди населения.
Другой пример — это дипфейк с бывшим президентом США Бараком Обамой, который якобы оскорблял своего преемника Дональда Трампа. Видео было создано известным комиком Джорданом Пилом и показано в телешоу. Хотя это был юмористический ролик, он также продемонстрировал потенциал дипфейков для подделки политических высказываний и компрометации лидеров.
Однако не все поддельные видео имеют юмористический или политический характер. Еще один пример — это поддельное видео с актрисой Галь Гадот, которая якобы снималась в порнофильме. Это видео было создано с помощью программы DeepFaceLab и размещено на сайте Pornhub. Хотя видео было удалено после жалоб, оно также показало возможность дипфейк-технологий.
Как видим, дипфейки могут нести разные опасности для общества и индивидов. Поэтому необходимо развивать критическое мышление, проверять информацию из разных источников и использовать специальные инструменты для обнаружения дипфейков. Также нужно разрабатывать законодательство и этические нормы для регулирования создания и распространения дипфейков.
Функция «Об этом изображении» позволит пользователям проверять достоверность и происхождение изображений, которые могут быть использованы для обмана или дезинформации.
В блоге Google объясняют, что эта функция предоставит три вида информации об изображениях в результатах поиска. Во-первых, она покажет, когда Google впервые проиндексировал изображение. Во-вторых, она укажет, где изображение было опубликовано в интернете впервые. В-третьих, она покажет, где изображение появлялось в других источниках, например, в социальных сетях, новостных сайтах или сайтах по проверке фактов.
— Google.
Поисковый гигант также добавил, что когда он запустит свои собственные генеративные инструменты искусственного интеллекта для создания изображений, они получат специальную разметку на случай распространения на других сайтах.
Как же защитить себя от таких угроз? Компания Google разработала новую функцию «Об этом изображении», которая позволяет пользователям получать больше информации об изображениях, которые они видят в интернете. В этой статье мы расскажем, как эта функция работает, как она помогает распознавать дипфейки и какие еще технологии используются для борьбы с цифровой манипуляцией.
Что такое дипфейки и как их создают?
Дипфейки — это видео или фото, которые создаются с помощью искусственного интеллекта. Для этого используются специальные алгоритмы, которые называются генеративно-состязательными сетями (GAN). Эти сети состоят из двух нейронных сетей, которые соревнуются друг с другом: одна сеть генерирует поддельное изображение, а другая сеть пытается определить, насколько оно реалистично. Таким образом, сети постоянно учатся и улучшают свои результаты.
Дипфейки бывают разных видов: например, можно поменять лица людей на видео (face swap), изменить то, что они говорят (lip sync), скопировать их голос (voice cloning) или создать полностью синтетические лица и тела (digital avatars). С помощью дипфейков можно также «оживить» умерших людей или животных, как это было сделано с художником Сальвадором Дали или кошкой Лил Баб.
Какие опасности несут дипфейки?
Дипфейки могут быть использованы не только для развлечения или искусства, но и для злых целей. В том числе для распространения дезинформации, шантажа, порнографии или политического вмешательства. Дипфейки могут заставить нас верить, что кто-то говорит или делает то, что он на самом деле не говорил или не делал.
Например, в ходе конфликта между Россией и Украиной в интернете появились дипфейки с президентами обеих стран, которые призывали своих солдат сдаться. Эти дипфейки были распространены через социальные сети и даже взломанные телеканалы. Хотя видеоролики были быстро опровергнуты и раскритикованы за низкое качество, они могли вызвать путаницу, недоверие и страх среди населения.
Другой пример — это дипфейк с бывшим президентом США Бараком Обамой, который якобы оскорблял своего преемника Дональда Трампа. Видео было создано известным комиком Джорданом Пилом и показано в телешоу. Хотя это был юмористический ролик, он также продемонстрировал потенциал дипфейков для подделки политических высказываний и компрометации лидеров.
Однако не все поддельные видео имеют юмористический или политический характер. Еще один пример — это поддельное видео с актрисой Галь Гадот, которая якобы снималась в порнофильме. Это видео было создано с помощью программы DeepFaceLab и размещено на сайте Pornhub. Хотя видео было удалено после жалоб, оно также показало возможность дипфейк-технологий.
Как видим, дипфейки могут нести разные опасности для общества и индивидов. Поэтому необходимо развивать критическое мышление, проверять информацию из разных источников и использовать специальные инструменты для обнаружения дипфейков. Также нужно разрабатывать законодательство и этические нормы для регулирования создания и распространения дипфейков.
Как новая функция Google поможет бороться с манипуляциями и ложью в интернете?
Функция «Об этом изображении» позволит пользователям проверять достоверность и происхождение изображений, которые могут быть использованы для обмана или дезинформации.
В блоге Google объясняют, что эта функция предоставит три вида информации об изображениях в результатах поиска. Во-первых, она покажет, когда Google впервые проиндексировал изображение. Во-вторых, она укажет, где изображение было опубликовано в интернете впервые. В-третьих, она покажет, где изображение появлялось в других источниках, например, в социальных сетях, новостных сайтах или сайтах по проверке фактов.
С этой дополнительной информацией об изображении вы сможете лучше оценить его надежность — или решить, что нужно провести дополнительную проверку. Например, с помощью «Об этом изображении» вы сможете узнать, что в новостных статьях сообщалось, что это изображение, демонстрирующее посадку на Луну поэтапно, было сгенерировано ИИ
— Google.
Поисковый гигант также добавил, что когда он запустит свои собственные генеративные инструменты искусственного интеллекта для создания изображений, они получат специальную разметку на случай распространения на других сайтах.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

Библейское чудо с переходом сквозь море оказалось на 100% вероятным
Океанограф Карл Дрюс доказал, что чудо и формулы уживаются в одной истории....

Лицом в землю, кинжал в спине, ноги отсечены…
Две тайны 5000-летнего форта Кортихо-Лобато...

«Невидимый» город переписывает всю историю Римской империи
Порт, крытый театр на 1500 человек, множество зданий — про это вам точно не рассказывали в школе....

Ученые выяснили, что мегалодон был еще больше и длиннее, чем считалось
Но забудьте о прежнем портрете этого ужасного хищника, ведь он выглядел совсем по-другому....

В Китае откопали 2200-летнюю принцессу с ядовитыми зубами
Уникальный случай для археологии....

Кровь и глина: доказано существование библейского царя, погибшего в битве при Армагеддоне
Что нашли археологи в забытой Зоне X?...

Шаттер-конусы и секрет Пилбары: кто ударил по Земле 3,5 миллиарда лет назад?
Австралийские ученые считают, что удары астероидов запустили образование материков и континентов на планете....

«Молния» в бутылке: ученые создали импульс, который мощнее всей энергии на планете
Почему этот эксперимент важнее, чем полет на Марс, и как он изменит вашу жизнь через 10 лет....

От таблеток к биопринтерам: наука смогла решить одну из главных мужских проблем
Импланты превратили кабанов и кроликов в супермачо. Скоро очередь людей?...

Им 1,5 миллиона лет: костяные орудия подняли новые вопросы о предках человека
Речь идёт о систематическом изготовлении....

Программисту грозит 10 лет за код, активированный после его увольнения
Разработчика судят за программу типа «рубильник»....

Даже одна ночь без сна «взрывает» иммунную систему
Кувейтские ученые рассказали: почему недосып опаснее фастфуда, а ваши клетки объявляют вам же войну....

Сокровища кельтов: разгадана древняя тайна 70 000 монет и золотых обручей
Особый клад нашли на особом острове....

Смотрим на упаковки: из-за рака у крыс в мире начали запрещать пищевой краситель
E127 объявили нелегальным в США, но во многих продуктах он всё ещё есть и будет....

Названы 36 компаний, которые виновны в 50% всех выбросов в атмосферу
Среди них есть и российские, но дьявол, как всегда, скрывается в деталях....

«Их осталось трое»: NASA отключает еще один научный прибор на «Вояджере-2»
Что это означает для самого долговечного космического аппарата в истории?...