Рубріки: Інфопривід

Несправжні люди та реальна дезінформація. Новинний ресурс створив цифрових дикторів та розповсюджував фейки

Новинну компанію Wolf News підозрюють у використанні відеотехнології Deepfake для створення несправжніх людей у рамках державної інформаційної кампанії. Про це повідомляє The New York Times.

Технічні кореспонденти Адам Сатаріано з Лондона, Велика Британія, та Пол Мозур із Сеула, Південна Корея, які працюють у галузі викриття дезінформації, повідомили про щонайменше два сюжети, у яких замість дикторів «новини» зачитували цифрові аватари.

В одному з них ведучий говорив про те, що США нібито ніяк не планують протидіяти насильству у світі. В іншому кореспондентка розповідала про роль Китаю в геополітичних відносинах.

Журналісти відзначили певну «синтетичність» їхніх голосів та невідповідність міміки мовленню. Під час детального аналізу вдалося встановити, що зображення взагалі були піксельними. Тобто це не справжні диктори, а створені штучним інтелектом аватари. 

Віцепрезидент дослідницької компанії Graphika, що займається виявленням та знешкодженням дезінформації, Джек Стаббс повідомив, що за весь час роботи в цій галузі бачив таке вперше. Він припустив, що кампанія мала на меті просування інтересів Комуністичної партії Китаю та підрив авторитету Сполучених Штатів.

Вважається, що обох дикторів створили з використанням технології Deepfake, яка буквально дозволяє генерувати цифрових маріонеток, що вміють розмовляти. Якщо пам’ятаєте, минулого року в мережі поширювали створене за її допомогою фейкове відео, в якому президент Володимир Зеленський нібито закликав українців скласти зброю.

Законодавство у сфері використання таких технологій тільки починає формуватися. А це збільшує ризик того, що цими технологіями зловживатимуть для поширення пропаганди та дезінформації із закликами до заворушень або для розпалювання політичних скандалів.

У компанії Graphika припустили, що для створення фейкових новин використали цифрові аватари, створені програмним забезпеченням британської компанії Synthesia. Вони можуть розмовляти десятками мов та імітувати різноманітні акценти. В Synthesia повідомили, що користувачі, які створили фейкові відео для Wolf News, порушили правила компанії. Зловмисників ідентифікували, а їхні облікові записи заблокували.

Наша редакція також розповідала, що відрізняти цифрових аватарів від реальних людей стає дедалі складніше. Також пропонуємо почитати про те, що схожу технологію хочуть використати для «омолодження» актора Тома Генкса.

Нещодавні статті

Чи чекати на розкриття банківської таємниці й що це може змінити для українців – пояснення адвоката

Чи справді в Україні все йде до розкриття банківської таємниці та чи пов'язане це з…

04/07/2025

Жінка продала шапку за 35 грн онлайн й опинилась у суді – деталі справи

Проти жінки завели справу через продаж товарів на OLX – вона продала шапку за 35…

04/07/2025

Продаєте вживані речі? Ось коли потрібні документи, що підтверджують їхнє походження – експерт

Чи потрібні первинні документи для продажу вживаних товарів? Наприклад, якщо ви маєте такий бізнес або…

04/07/2025

Суд не дозволив «ПриватБанку» стягнути 250 тис. грн заборгованості з клієнта. Що відомо

«ПриватБанк» звернувся до суду для стягнення боргу з клієнта в майже 250 тис. грн. Та…

04/07/2025

«Бан без жодної можливості апеляції». Upwork блокує акаунти українських користувачів – що відомо

Українські користувачі фриланс-платформи Upwork масово скаржаться на блокування акаунтів. Підприємець і засновник getmany.io Кирило Козак…

04/07/2025

Гроші під подушкою – втрата, а не безпека. Як перейти від менталітету заощаджень до менталітету інвестицій

Якщо вам страшно вкладати гроші – ви не одні. Багато українців впродовж життя звикали накопичувати…

04/07/2025