Рубріки: Інфопривід

Несправжні люди та реальна дезінформація. Новинний ресурс створив цифрових дикторів та розповсюджував фейки

Новинну компанію Wolf News підозрюють у використанні відеотехнології Deepfake для створення несправжніх людей у рамках державної інформаційної кампанії. Про це повідомляє The New York Times.

Технічні кореспонденти Адам Сатаріано з Лондона, Велика Британія, та Пол Мозур із Сеула, Південна Корея, які працюють у галузі викриття дезінформації, повідомили про щонайменше два сюжети, у яких замість дикторів «новини» зачитували цифрові аватари.

В одному з них ведучий говорив про те, що США нібито ніяк не планують протидіяти насильству у світі. В іншому кореспондентка розповідала про роль Китаю в геополітичних відносинах.

Журналісти відзначили певну «синтетичність» їхніх голосів та невідповідність міміки мовленню. Під час детального аналізу вдалося встановити, що зображення взагалі були піксельними. Тобто це не справжні диктори, а створені штучним інтелектом аватари. 

Віцепрезидент дослідницької компанії Graphika, що займається виявленням та знешкодженням дезінформації, Джек Стаббс повідомив, що за весь час роботи в цій галузі бачив таке вперше. Він припустив, що кампанія мала на меті просування інтересів Комуністичної партії Китаю та підрив авторитету Сполучених Штатів.

Вважається, що обох дикторів створили з використанням технології Deepfake, яка буквально дозволяє генерувати цифрових маріонеток, що вміють розмовляти. Якщо пам’ятаєте, минулого року в мережі поширювали створене за її допомогою фейкове відео, в якому президент Володимир Зеленський нібито закликав українців скласти зброю.

Законодавство у сфері використання таких технологій тільки починає формуватися. А це збільшує ризик того, що цими технологіями зловживатимуть для поширення пропаганди та дезінформації із закликами до заворушень або для розпалювання політичних скандалів.

У компанії Graphika припустили, що для створення фейкових новин використали цифрові аватари, створені програмним забезпеченням британської компанії Synthesia. Вони можуть розмовляти десятками мов та імітувати різноманітні акценти. В Synthesia повідомили, що користувачі, які створили фейкові відео для Wolf News, порушили правила компанії. Зловмисників ідентифікували, а їхні облікові записи заблокували.

Наша редакція також розповідала, що відрізняти цифрових аватарів від реальних людей стає дедалі складніше. Також пропонуємо почитати про те, що схожу технологію хочуть використати для «омолодження» актора Тома Генкса.

Нещодавні статті

«Нереально і несправедливо». Рєпа розповіла, чого засновникам не варто очікувати від працівників

Засновниця та CEO Health & Fitness IT-компанії BetterMe Вікторія Рєпа поділилась думками щодо того, чому…

21/04/2025

«Не чіпляйтеся за людей». Авдєєва назвала правила, важливі для ведення бізнесу

Марина Авдєєва, співвласниця СК «Арсенал страхування», розповіла про свої правила ведення бізнесу та що не…

21/04/2025

СЕО Bimp розповів, що навчило його будувати продукти та сформувало головний принцип компанії

Співзасновник та СЕО компанії-розробниці системи обліку товарів і управління запасами для бізнесу та e-commerce Bimp…

21/04/2025

Найвищі зарплати українських айтівців в Україні та за кордоном: хто отримує від $12 тис. і що з новачками

В DOU провели опитування серед українських ІТ-фахівців і визначили найвищі зарплати в Україні та за…

21/04/2025

«Велика амбіція». «Київстар» хоче збільшити частку доходу не від телеком-сервісу

«Київстар» планує отримувати 10% доходу не від телекомунікаційних послуг, а далі – збільшити такий дохід…

21/04/2025

«Прикол вийшов з-під контролю». Гороховський розповів про новий напій від monobank і «Живчик»

Необанк monobank випустив новий напій у колаборації із «Живчиком». Відсканувавши QR-код на банці можна також…

21/04/2025