Ученые обнаружили, что люди верят 25% дипфейков даже после курсов по распознаванию ИИ

Редакторка MC.today
Розкажіть про статтю:

Команда из Университетского колледжа Лондона решила проверить, помогает ли людям специализированное обучение распознавать дипфейки. Результаты эксперимента оказались не слишком утешительными, пишет Daily Mail

[social_blue social="telegram"]

Ученые обеспокоены развитием технологий, способных генерировать дипфейки (подделывать видео и голосовые записи). Поэтому они решили проверить, влияет ли на способность человека обнаруживать сгенерированный искусственным интеллектом контент обучение по его распознаванию.

В исследовании приняли участие 529 добровольцев. После изучения теории им было предложено пересмотреть и прослушать 50 записей и проанализировать их на наличие характерных для «подделок» признаков. Даже после прохождения короткого курса только в 73% случаев они смогли идентифицировать «след» искусственного интеллекта. К сожалению, этот показатель распознавания не намного выше, чем у людей, которые не учились выявлять ИИ.

Соавтор исследования Кимберли Мэй также отметила, что команда использовала для создания дипфейков не новейшие технологии. То есть с их развитием вероятность того, что ИИ будет вводить людей в заблуждение, может расти.

Впрочем, ученые говорят и о пользе таких программ. Например, клонирование голоса по записям может пригодиться людям с определенными заболеваниями или состояниями, вследствие которых они теряют способность говорить.

Также исследователи поделились перечнем признаков, по которым можно распознать визуальный дипфейк.

  1. Нетипичное или совсем отсутствующее движение глаз, в частности, неестественное моргание – его крайне трудно воспроизвести с помощью технологий.
  2. Странная мимика – если с лицом человека на экране что-то не то, вероятно, что изображения накладывали друг на друга.
  3. Неправильные пропорции или расположения, например глаз, носа, ушей и так далее. Также следует обращать внимание на вероятные «искажения» черт лица, когда человек поворачивает голову или качает ею.
  4. Отсутствие эмоций или их несоответствие содержанию и тону речи.
  5. Неловкое или неестественное положение тела, как и нетипичные или несогласованные движения, также может указывать на то, что ролик сгенерирован.
  6. Искажение изображения во время движения, как деформация тела при повороте корпуса и так далее.
  7. Неестественная окраска – это может быть удивительный цвет кожи, слишком яркое или неравномерное освещение, неправильная тень.
  8. «Ненастоящие» волосы – искусственный интеллект до сих пор не научился изображать, например, кудри. Также прическа вряд ли будет естественно двигаться в кадре вместе с человеком.
  9. Отсутствие контуров зубов – с детализацией в ИИ до сих пор есть определенные проблемы.
  10. Размытость или смещение картинки может свидетельствовать о том, что визуальные элементы не слишком тщательно выровняли.

Напомним, ранее мы рассказывали об одном из самых жестоких, по мнению зрителей, реалити-шоу, продюсеры которого во время съемки использовали дипфейки.


Схожі статті по темі