logo
03 Aug 2023

Ученые обнаружили, что люди верят 25% дипфейков даже после курсов по распознаванию ИИ

Юлія Фещенко

Редакторка новин MC.today

Команда из Университетского колледжа Лондона решила проверить, помогает ли людям специализированное обучение распознавать дипфейки. Результаты эксперимента оказались не слишком утешительными, пишет Daily Mail

Deepfakes are fake videos or audio clips intended to resemble a real personDeepfakes are fake videos or audio clips intended to resemble a real person

Ученые обеспокоены развитием технологий, способных генерировать дипфейки (подделывать видео и голосовые записи). Поэтому они решили проверить, влияет ли на способность человека обнаруживать сгенерированный искусственным интеллектом контент обучение по его распознаванию.

В исследовании приняли участие 529 добровольцев. После изучения теории им было предложено пересмотреть и прослушать 50 записей и проанализировать их на наличие характерных для «подделок» признаков. Даже после прохождения короткого курса только в 73% случаев они смогли идентифицировать «след» искусственного интеллекта. К сожалению, этот показатель распознавания не намного выше, чем у людей, которые не учились выявлять ИИ.

Курс Frontend розробки від Mate academy.
Front-end розробник одна з найзатребуваніших професій на IT ринку. У Mate academy ми навчимо вас розробляти візуально привабливі та зручні інтерфейси. Після курсу ви зможете створювати вебсайти і застосунки, що вразять і користувачів, і роботодавців.
Дізнатися більше про курс

Соавтор исследования Кимберли Мэй также отметила, что команда использовала для создания дипфейков не новейшие технологии. То есть с их развитием вероятность того, что ИИ будет вводить людей в заблуждение, может расти.

Впрочем, ученые говорят и о пользе таких программ. Например, клонирование голоса по записям может пригодиться людям с определенными заболеваниями или состояниями, вследствие которых они теряют способность говорить.

Также исследователи поделились перечнем признаков, по которым можно распознать визуальный дипфейк.

  1. Нетипичное или совсем отсутствующее движение глаз, в частности, неестественное моргание – его крайне трудно воспроизвести с помощью технологий.
  2. Странная мимика – если с лицом человека на экране что-то не то, вероятно, что изображения накладывали друг на друга.
  3. Неправильные пропорции или расположения, например глаз, носа, ушей и так далее. Также следует обращать внимание на вероятные «искажения» черт лица, когда человек поворачивает голову или качает ею.
  4. Отсутствие эмоций или их несоответствие содержанию и тону речи.
  5. Неловкое или неестественное положение тела, как и нетипичные или несогласованные движения, также может указывать на то, что ролик сгенерирован.
  6. Искажение изображения во время движения, как деформация тела при повороте корпуса и так далее.
  7. Неестественная окраска – это может быть удивительный цвет кожи, слишком яркое или неравномерное освещение, неправильная тень.
  8. «Ненастоящие» волосы – искусственный интеллект до сих пор не научился изображать, например, кудри. Также прическа вряд ли будет естественно двигаться в кадре вместе с человеком.
  9. Отсутствие контуров зубов – с детализацией в ИИ до сих пор есть определенные проблемы.
  10. Размытость или смещение картинки может свидетельствовать о том, что визуальные элементы не слишком тщательно выровняли.

Напомним, ранее мы рассказывали об одном из самых жестоких, по мнению зрителей, реалити-шоу, продюсеры которого во время съемки использовали дипфейки.

Онлайн-курс "Управління ІТ-командами" від Laba.
Прокачайте свої soft- і hard-скіли в управлінні кількома IT-командами, отримайте практичні стратегії та інструменти ефективного team-ліда.
Програма курсу і реєстрація

Новости

Вдохновляющие компании-работодатели

«БИОСФЕРА»

Ваша жалоба отправлена модератору

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: