Учені виявили, що люди вірять 25% дипфейків навіть після курсів із розпізнавання ШІ

Команда з Університетського коледжу Лондона вирішила дослідити, чи допомагає людям спеціалізоване навчання розпізнавати дипфейки. Результати експерименту виявилися не надто втішними, пише Daily Mail

Науковці занепокоєні розвитком технологій, здатних генерувати дипфейки (підробляти відео та голосові записи). Тому вони вирішили перевірити, чи впливають на здатність людини виявляти згенерований штучним інтелектом контент навчальні програми з його розпізнавання.

В дослідженні взяли участь 529 добровольців. Після вивчення теорії їм запропонували переглянути та прослухати 50 записів та проаналізувати їх на наявність характерних для «підробок» ознак. Навіть після проходження короткого курсу тільки в 73% випадків вони змогли ідентифікувати «слід» штучного інтелекту. На жаль, цей показник розпізнавання не набагато вищий, ніж у людей, котрі не вчилися виявляти ШІ.

Співавторка дослідження Кімберлі Мей також зазначила, що команда використовувала для створення дипфейків не найновітніші технології. Тобто з їхнім розвитком вірогідність того, що ШІ вводитиме людей в оману, може зростати.

Втім, науковці говорять і про користь таких програм. Наприклад, клонування голосу за записами може стати в пригоді людям із певними захворюваннями чи станами, внаслідок яких вони втрачають здатність говорити.

Також дослідники поділилися переліком ознак, за якими можна розпізнати візуальний дипфейк.

  1. Нетиповий або й зовсім відсутній рух очей, зокрема, неприродне моргання – його вкрай важко відтворити за допомогою технологій.
  2. Дивна міміка – якщо з обличчям людини на екрані «щось не те», ймовірно, що зображення накладали одне на одне.
  3. Неправильні пропорції або розташування, наприклад, очей, носа, вух тощо. Також варто звертати увагу на ймовірні «викривлення» рис обличчя, коли людина повертає голову або хитає нею.
  4. Відсутність емоцій або їхня невідповідність змісту та тону мовлення.
  5. Незграбне чи неприродне положення тіла, як і нетипові чи неузгоджені рухи, також може вказувати на те, що ролик згенерований.
  6. Спотворення зображення під час руху, як от деформація тіла при повороті корпуса тощо.
  7. Неприродне забарвлення – це може бути дивний колір шкіри, занадто яскраве або нерівномірне освітлення, неправильна тінь.
  8. «Несправжнє» волосся – штучний інтелект досі не навчився зображати, наприклад, кучері. Також зачіска навряд чи природно рухатиметься в кадрі разом із людиною.
  9. Відсутність контурів зубів – з деталізацією в ШІ досі є певні проблеми.
  10. Розмитість або зміщення картинки також може свідчити про те, що візуальні елементи не надто ретельно вирівняли.

Нагадаємо, раніше ми розповідали про одне з найбільш жорстоких, на думку глядачів, реаліті-шоу, продюсери якого під час знімання використовували дипфейки.

Нещодавні статті

«Помилкове трактування». CEO Trustee Plus про інформацію щодо обходу обмежень НБУ

У травні Trustee Plus та Weld Money, які одні з перших в Україні привʼязали криптовалюти…

11/07/2025

«Взяв гроші, які відкладав на квартиру». Історія нової української соцмережі

«Ми почали роз’єднуватись саме тоді, коли варто було об’єднуватись. Нам бракувало універсального простору: щоб хтось…

11/07/2025

Як у «Піратах Карибського моря». CPO Prom розповів, що потрібно для онлайн-продажів

Для початку продажів на маркетплейсі не обовʼязково мати власний склад чи велику команду – достатньо…

11/07/2025

Bitget спалив 30 мільйонів BGB на $138 мільйонів. Що це означає для біржі та інвесторів?

Провідна світова криптовалютна біржа та Web3-компанія Bitget завершила спалювання 30 001 053,1 BGB, що складає 2,56% від…

11/07/2025

Що таке емоційні покупки і як їх розпізнати, використовуючи одне просте питання

Іноді емоції керують людиною навіть у плані витрати коштів. І якщо вже є розуміння цього,…

11/07/2025

Борг виявився не боргом. monobank звернувся до суду для стягнення понад 50 тис. грн з клієнта

Universal Bank (до якого належить monobank) звернувся до суду для стягнення заборгованості з клієнта розміром…

10/07/2025