«Мы больше не знаем, что такое реальность». Как технологические компании помогают выявлять изображения, созданные ИИ
Генеративный искусственный интеллект научился создавать реалистичные визуализации, способные ввести в заблуждение миллионы людей. Например, недавно в сети распространили изображение якобы взрыва в Пентагоне. У него были все признаки «искусственности», но пользователи интернета создали настоящую панику. Поэтому технологические компании работают над инструментами, помогающими обнаруживать сгенерированные ИИ фейки, пишет CNN.

Генеральный директор компании Truepic Джеффри МакГрегор считает это верхушкой айсберга и предупреждает, что человечество не готово к тому количеству сгенерированных ИИ материалов, которые скоро заполнят соцсети. Поэтому его команда предлагает технологию, которая аутентифицирует медиа на момент создания с помощью Truepic Lens. Приложение определяет дату, время, место и устройство, которое использовалось для создания изображения, и применяет цифровую подпись для проверки его оригинальности.
Такие технические компании как Truepic годами работают над борьбой с дезинформацией в интернете. Но появление новых инструментов искусственного интеллекта, которые могут быстро создавать правдоподобные изображения и тексты по запросам пользователей, заставляет разработчиков прилагать еще больше усилий.
Часть из них сосредоточилась на создании программ идентификации изображений, сгенерированных ИИ. Reality Defender и Hive Moderation, например, разработали платформы, на которые можно скачивать медиафайлы. Они практически мгновенно дают разбивку с процентами, указывающими на вероятность того, реальны изображения или сгенерированы ИИ. Reality Defender, например, еще предлагает собственную технологию глубокого анализа контента для обнаружения созданных искусственным интеллектом видео, аудио и изображений.
В рамках другого превентивного подхода некоторые крупные технологические компании работают над метками вроде водяных знаков, чтобы сертифицировать медиафайлы как настоящие или сгенерированные искусственным интеллектом. Они объединились в Коалицию за происхождение и подлинность содержания (C2PA). В нее входят, в частности, Truepic, Intel, Sony, Adobe и Project Origin (инициатива Microsoft и BBC, борющаяся с дезинформацией в цифровых новостях). Они создают продукты с открытым программным кодом для анализа содержимого и метаданных медиафайлов.
К примеру, инструмент для создания изображений с искусственным интеллектом Adobe Firefly, который недавно добавили в Photoshop, стандартизирует учетные данные содержимого изображений. Microsoft также объявила, что сгенерированные в Bing Image Creator и Microsoft Designer изображения уже скоро будут маркироваться криптографической подписью.
Остальные технологические компании пытаются соединить эти два подхода. Google, например, анонсировала инструмент About this image. Он предоставляет информацию, когда поисковик проиндексировал изображение, где его можно найти в интернете и на каких сайтах оно могло появиться впервые. В будущем разработчики таких программ и приложений, вероятно, будут сотрудничать с соцсетями по всему миру, чтобы снизить интенсивность распространения фейков и дезинформации.
- Напомним, мы рассказывали, что искусственный интеллект научили находить и переписывать обманчивые заголовки.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: