Технології

Як Deepfake використовують під час російського вторгнення в Україну

Дар'я Подхалюзіна

Deepfake

Останнім часом у мережі почали з'являтися фальшиві відеозвернення Зеленського та Путіна, які можуть використовуватись з метою дезінформації.

Одним із дипфейків стало звернення Путіна з оголошенням миру, яке сприйняли як сатиру, а іншим – оголошення Зеленського про капітуляцію України, передає ВВС.

Проте, зазначається, що фейк президента Зеленського виявився непереконливим і його висміяли багато українців.

Повідомляється, що на відео Володимир Зеленський з'являється за трибуною та каже українцям скласти зброю. Його голова здається занадто великою і піксельнішою, ніж його тіло, а голос зовсім не схожий на голос українського президнта.

У відео, розміщеному на його офіційному обліковому записі в Instagram, справжній президент Зеленський називає це "дитячою провокацією".

Але Український центр стратегічних комунікацій попередив, що російський уряд цілком може використати дипфейки, щоб переконати українців здатися.

У Twitter глава відділу політики безпеки Meta Натаніель Глейхер заявив, що компанія "швидко розглянула і видалила" дипфейк за порушення своєї політики щодо тих, хто вводить в оману маніпульованих ЗМІ.

YouTube також заявив, що його вилучили за порушення політики дезінформації.

За словами Ніни Шик, авторки книги Deepfakes, це була легка перемога для компаній, які займаються соціальними мережами, тому що відео було настільки непрофесійним, що навіть прості глядачі легко визначили його як фальшивку.

"Платформи можуть підняти великий галас, щоб впоратися з цим. Є так багато інших форм дезінформації в цій війні, які не були спростовані. Незважаючи на те, що це відео було справді поганим, у найближчому майбутньому цього не станеться", - сказала вона.

Проте, зазначається, що такі речі можуть підривати довіру громадськості до ЗМІ.

"Люди починають вірити, що все можна підробити", - сказала Шік.

"Це нова зброя та потужна форма візуальної дезінформації, і кожен може це зробити", - додала вона.

Повідомляється, що інструмент дипфейка, що дозволяє користувачам анімувати старі фотографії родичів, широко використовується, і компанія MyHeritage, яка стоїть за ним, тепер додала LiveStory, яка дозволяє додавати голоси.

Але минулого року була неоднозначна реакція, коли південнокорейська телекомпанія MBN оголосила, що використовує дипфейк диктора Кім Джу-Ха.

Деякі були вражені тим, наскільки це було реалістичним, інші побоювалися, що справжня Кім Джу-Ха втратить роботу.

Наголошується, що використання дипфейків у політиці залишається відносно рідкісним.

Проте, програмний директор Witness.org. Сем Грегорі також зазначив, що дипфейк із Зеленським був неякісним.

"І це було викрито Україною, і Зеленський спростував це у соціальних мережах, тому для Facebook це було легко усунути", - зазначив він.

Але в інших частинах світу журналісти та правозахисні групи побоювалися, що вони не мають ні інструментів для виявлення, ні можливості розвінчати дипфейки.

Інструменти виявлення аналізують те, як людина рухається або шукають такі речі, як процес машинного навчання, який створив дипфейк.

Але минулого літа онлайн-детектор виявив справжнє відео високопоставленого політика в М'янмі, який, очевидно, зізнався в корупції — досі точаться суперечки, чи це було реальною заявою чи дипфейком.

"Відсутність 100% доказів у будь-якому випадку і бажання людей повірити, що це був дипфейк, що відображає проблеми дипфейків у реальному середовищі", - сказав Грегорі.

"Президент Путін був перетворений на дипфейк кілька тижнів тому, і це було широко розцінено як сатира, але між сатирою та дезінформацією тонка грань", - додав він.

Повідомляється, що дипфейк Зеленського вперше з'явився у тикері української телекомпанії "Україна 24" під час прямого ефіру у середу.

Україна 24 підтвердила, що і сайт, недоступний більшу частину середовища, і тікер були зламані.

Потім відео було поширене в російськомовному Telegram і VK.

Звідти він потрапив на такі платформи, як Facebook, Instagram та Twitter.

Протягом певного часу були попередження, що дипфейки можуть бути небезпечними, в тому числі в умовах конфлікту.

Але створення правдоподібного дипфейку потребує великих витрат часу та грошей.

А старі відео та підроблені меми залишаються найпоширенішою та найефективнішою тактикою дезінформації у цій війні.