Ученые обнаружили, что люди верят 25% дипфейков даже после курсов по распознаванию ИИ
Deepfakes are fake videos or audio clips intended to resemble a real person
Команда из Университетского колледжа Лондона решила проверить, помогает ли людям специализированное обучение распознавать дипфейки. Результаты эксперимента оказались не слишком утешительными, пишет Daily Mail.
[social_blue social="telegram"]Ученые обеспокоены развитием технологий, способных генерировать дипфейки (подделывать видео и голосовые записи). Поэтому они решили проверить, влияет ли на способность человека обнаруживать сгенерированный искусственным интеллектом контент обучение по его распознаванию.
В исследовании приняли участие 529 добровольцев. После изучения теории им было предложено пересмотреть и прослушать 50 записей и проанализировать их на наличие характерных для «подделок» признаков. Даже после прохождения короткого курса только в 73% случаев они смогли идентифицировать «след» искусственного интеллекта. К сожалению, этот показатель распознавания не намного выше, чем у людей, которые не учились выявлять ИИ.
Соавтор исследования Кимберли Мэй также отметила, что команда использовала для создания дипфейков не новейшие технологии. То есть с их развитием вероятность того, что ИИ будет вводить людей в заблуждение, может расти.
Впрочем, ученые говорят и о пользе таких программ. Например, клонирование голоса по записям может пригодиться людям с определенными заболеваниями или состояниями, вследствие которых они теряют способность говорить.
Также исследователи поделились перечнем признаков, по которым можно распознать визуальный дипфейк.
- Нетипичное или совсем отсутствующее движение глаз, в частности, неестественное моргание – его крайне трудно воспроизвести с помощью технологий.
- Странная мимика – если с лицом человека на экране что-то не то, вероятно, что изображения накладывали друг на друга.
- Неправильные пропорции или расположения, например глаз, носа, ушей и так далее. Также следует обращать внимание на вероятные «искажения» черт лица, когда человек поворачивает голову или качает ею.
- Отсутствие эмоций или их несоответствие содержанию и тону речи.
- Неловкое или неестественное положение тела, как и нетипичные или несогласованные движения, также может указывать на то, что ролик сгенерирован.
- Искажение изображения во время движения, как деформация тела при повороте корпуса и так далее.
- Неестественная окраска – это может быть удивительный цвет кожи, слишком яркое или неравномерное освещение, неправильная тень.
- «Ненастоящие» волосы – искусственный интеллект до сих пор не научился изображать, например, кудри. Также прическа вряд ли будет естественно двигаться в кадре вместе с человеком.
- Отсутствие контуров зубов – с детализацией в ИИ до сих пор есть определенные проблемы.
- Размытость или смещение картинки может свидетельствовать о том, что визуальные элементы не слишком тщательно выровняли.
Напомним, ранее мы рассказывали об одном из самых жестоких, по мнению зрителей, реалити-шоу, продюсеры которого во время съемки использовали дипфейки.