Рубріки: Інфопривід

Несправжні люди та реальна дезінформація. Новинний ресурс створив цифрових дикторів та розповсюджував фейки

Новинну компанію Wolf News підозрюють у використанні відеотехнології Deepfake для створення несправжніх людей у рамках державної інформаційної кампанії. Про це повідомляє The New York Times.

Технічні кореспонденти Адам Сатаріано з Лондона, Велика Британія, та Пол Мозур із Сеула, Південна Корея, які працюють у галузі викриття дезінформації, повідомили про щонайменше два сюжети, у яких замість дикторів «новини» зачитували цифрові аватари.

В одному з них ведучий говорив про те, що США нібито ніяк не планують протидіяти насильству у світі. В іншому кореспондентка розповідала про роль Китаю в геополітичних відносинах.

Журналісти відзначили певну «синтетичність» їхніх голосів та невідповідність міміки мовленню. Під час детального аналізу вдалося встановити, що зображення взагалі були піксельними. Тобто це не справжні диктори, а створені штучним інтелектом аватари. 

Віцепрезидент дослідницької компанії Graphika, що займається виявленням та знешкодженням дезінформації, Джек Стаббс повідомив, що за весь час роботи в цій галузі бачив таке вперше. Він припустив, що кампанія мала на меті просування інтересів Комуністичної партії Китаю та підрив авторитету Сполучених Штатів.

Вважається, що обох дикторів створили з використанням технології Deepfake, яка буквально дозволяє генерувати цифрових маріонеток, що вміють розмовляти. Якщо пам’ятаєте, минулого року в мережі поширювали створене за її допомогою фейкове відео, в якому президент Володимир Зеленський нібито закликав українців скласти зброю.

Законодавство у сфері використання таких технологій тільки починає формуватися. А це збільшує ризик того, що цими технологіями зловживатимуть для поширення пропаганди та дезінформації із закликами до заворушень або для розпалювання політичних скандалів.

У компанії Graphika припустили, що для створення фейкових новин використали цифрові аватари, створені програмним забезпеченням британської компанії Synthesia. Вони можуть розмовляти десятками мов та імітувати різноманітні акценти. В Synthesia повідомили, що користувачі, які створили фейкові відео для Wolf News, порушили правила компанії. Зловмисників ідентифікували, а їхні облікові записи заблокували.

Наша редакція також розповідала, що відрізняти цифрових аватарів від реальних людей стає дедалі складніше. Також пропонуємо почитати про те, що схожу технологію хочуть використати для «омолодження» актора Тома Генкса.

Нещодавні статті

«Бан без жодної можливості апеляції». Upwork блокує акаунти українських користувачів – що відомо

Українські користувачі фриланс-платформи Upwork масово скаржаться на блокування акаунтів. Підприємець і засновник getmany.io Кирило Козак…

04/07/2025

Гроші під подушкою – втрата, а не безпека. Як перейти від менталітету заощаджень до менталітету інвестицій

Якщо вам страшно вкладати гроші – ви не одні. Багато українців впродовж життя звикали накопичувати…

04/07/2025

«Є значно краща альтернатива». Економіст прокоментував ідею фонду муніципального орендного житла

Український економіст та громадський діяч Віктор Галасюк прокоментував ідею створення урядової програми муніципального орендного житла…

03/07/2025

Активне vs пасивне інвестування: чим відрізняються підходи і на якому можна більше заробити

Як ви уявляєте собі сучасного інвестора? Ймовірно, це людина, яка щодня гортає новини, аналізує фінансові…

03/07/2025

Чи варто інвестувати в український мілтек – співзасновник Toloka.vc про перспективи й нюанси

Після початку повномасштабного вторгнення українська miltech-сфера отримала ривок і привернула увагу інвесторів. Ба більше, цей…

02/07/2025

Навіщо потрібна фінансова подушка безпеки та як її сформувати – покрокова інструкція

Неприємності зазвичай трапляються тоді, коли ми найменше до них готові. Від поламки пральної машини до…

02/07/2025