Технологии

Как Deepfake используют во время российского вторжения в Украину

Дарья Подхалюзина

Deepfake

В последнее время в сети начали появляться фальшивые видеообращения Зеленского и Путина, которые могут использоваться в целях дезинформации.

Одним из дипфейков стало обращение Путина с объявлением мира, которое восприняли как сатиру, а другим - объявление Зеленского о капитуляции Украины, передает ВВС.

Однако, отмечается, что фейк президента Зеленского оказался неубедительным и его высмеяли многие украинцы.

Сообщается, что на видео Владимир Зеленский появляется за трибуной и говорит украинцам сложить оружие. Его голова кажется слишком большой и более пиксельной, чем его тело, а голос совсем не похож на голос украинского президнта.

В видео, размещенном на его официальном аккаунте в Instagram, настоящий президент Зеленский называет это "детской провокацией".

Но Украинский центр стратегических коммуникаций предупредил, что российское правительство вполне может использовать дипфейки, чтобы убедить украинцев сдаться.

В Twitter глава отдела политики безопасности Meta Натаниэль Глейхер заявил, что компания "быстро рассмотрела и удалила" дипфейк за нарушение своей политики в отношении вводящих в заблуждение манипулируемых СМИ.

YouTube также заявил, что его удалили за нарушение политики дезинформации.

По словам Нины Шик, автора книги Deepfakes, это была легкая победа для компаний, занимающихся социальными сетями, потому что видео было настолько непрофессиональным, что даже простые зрители легко определили его как фальшивку.

"Платформы могут поднять большую шумиху, чтобы справиться с этим. Есть так много других форм дезинформации в этой войне, которые не были опровергнуты. Несмотря на то, что это видео было действительно плохим, в ближайшем будущем этого не произойдет", — сказала она.

Однако, отмечается, что такие вещи могут подрывать доверие общественности к СМИ.

"Люди начинают верить, что все можно подделать", — сказала Шик.

"Это новое оружие и мощная форма визуальной дезинформации, и каждый может это сделать", - добавила она.

Сообщается, что инструмент дипфейка, позволяющий пользователям анимировать старые фотографии родственников, широко используется, и компания MyHeritage, стоящая за ним, теперь добавила LiveStory, которая позволяет добавлять голоса.

Но в прошлом году была неоднозначная реакция, когда южнокорейская телекомпания MBN объявила, что использует дипфейк диктора Ким Джу-Ха.

Некоторые были впечатлены тем, насколько это было реалистично, другие опасались, что настоящая Ким Джу-Ха потеряет работу.

Отмечается, что использование дипфейков в политике остается относительно редким.

Однако программный директор Witness.org. Сэм Грегори также отметил, что дипфейк с Зеленским был некачественным.

"И это было разоблачено Украиной, и Зеленский опроверг это в социальных сетях, поэтому для Facebook это было легко устранить", - отметил он.

Но в других частях мира журналисты и правозащитные группы опасались, что у них нет ни инструментов для обнаружения, ни возможности развенчать дипфейки.

Инструменты обнаружения анализируют то, как человек двигается, или ищут такие вещи, как процесс машинного обучения, который создал дипфейк.

Но прошлым летом онлайн-детектор обнаружил подлинное видео высокопоставленного политика в Мьянме, очевидно, признавшегося в коррупции — до сих пор ведутся споры о том, было ли это реальным заявлением или дипфейком.

"Отсутствие 100% доказательств в любом случае и желание людей поверить, что это был дипфейк, отражает проблемы дипфейков в реальной среде", — сказал Грегори.

“Президент Путин был превращен в дипфейк несколько недель назад, и это было широко расценено как сатира, но между сатирой и дезинформацией тонкая грань", - добавил он.

Сообщается, что дипфейк Зеленского впервые появился в тикере украинской телекомпании "Украина 24" во время прямого эфира в среду.

Украина 24 подтвердила, что и сайт, недоступный большую часть среды, и тикер были взломаны.

Затем видео было широко распространено в русскоязычном Telegram и VK.

Оттуда он попал на такие платформы, как Facebook, Instagram и Twitter.

В течение некоторого времени были предупреждения, что дипфейки могут быть опасны, в том числе в условиях конфликта.

Но создание правдоподобного дипфейка требует больших затрат времени и денег.

А старые видео и подделанные мемы остаются самой распространенной и эффективной тактикой дезинформации в этой войне.