Интернет полон забавных фейковых изображений - от летающих акул и коров на машинах до головокружительного разнообразия мэшапов со знаменитостями. Однако гиперреалистичные изображения и видео-фейки, генерируемые сверточными нейронными сетями (CNN), не до смеха - на самом деле они могут быть совершенно опасными. Deepfake porn поднял свою уродливую голову в 2018 году, фальшивые политические выступления мировых лидеров поставили под сомнение источники новостей, а во время недавних австралийских лесных пожаров манипуляции с изображениями вводят людей в заблуждение относительно местоположения и размера пожаров. Поддельные изображения и видео вызывают у ИИ синяк под глазом - но как сообщество машинного обучения может дать отпор?

В новом документе исследователей Калифорнийского университета в Беркли и Adobe объявлена ​​война поддельным изображениям. Используя настраиваемый набор данных и новую метрику оценки, исследовательская группа представляет общий подход к криминалистической экспертизе изображений, который обеспечивает высокую среднюю точность обнаружения изображений, созданных CNN.

Обнаружение таких сгенерированных изображений может показаться относительно простой задачей - просто обучите классификатор, используя поддельные изображения вместо реальных. На самом деле задача намного сложнее по ряду причин. Поддельные изображения, вероятно, будут созданы из разных наборов данных, которые будут включать в себя разные смещения наборов данных. Поддельные функции труднее обнаружить, когда набор обучающих данных модели отличается от набора данных, используемого для создания поддельного изображения. Кроме того, сетевая архитектура и функции потерь могут быстро превзойти возможности модели обнаружения фальшивых изображений. Наконец, изображения могут подвергаться предварительной или постобработке, что увеличивает сложность определения общих черт в наборе поддельных изображений.

Чтобы решить эти и другие проблемы, исследователи построили набор данных моделей генерации на основе CNN, охватывающий множество архитектур, наборов данных и функций потерь. Затем реальные изображения были предварительно обработаны, и из каждой модели было создано равное количество поддельных изображений - от GAN до дипфейков. Благодаря большому разнообразию результирующий набор данных сводит к минимуму смещения от наборов обучающих данных или архитектур моделей.

Модель обнаружения поддельных изображений была построена на ProGAN, безусловной модели GAN для генерации случайных изображений с простой структурой на основе CNN, и обучена на новом наборе данных. По оценке с помощью различных методов создания изображений CNN, средняя точность модели была значительно выше, чем в контрольных группах.

Увеличение данных - еще один подход, который исследователи использовали для улучшения обнаружения поддельных изображений, которые после генерации подвергались постобработке. Обучающие изображения (поддельные / настоящие) подверглись нескольким дополнительным вариантам увеличения, от размытия по Гауссу до сжатия JPEG. Исследователи обнаружили, что включение дополнения данных в обучающий набор значительно повысило надежность модели, особенно при работе с постобработанными изображениями.

Однако исследователи отмечают, что даже лучший детектор все равно будет иметь компромисс между истинным обнаружением и ложными срабатываниями, и очень вероятно, что злоумышленник может просто вручную выбрать простое поддельное изображение, которое превышает порог обнаружения. Другая проблема заключается в том, что эффекты постобработки, добавленные к поддельным изображениям, могут увеличить сложность обнаружения, поскольку отпечатки поддельных изображений могут быть искажены во время постобработки. Есть также много поддельных изображений, которые не были созданы, а скорее обработаны в фотошопе, и детектор не будет работать с изображениями, полученными такими поверхностными методами.

Новое исследование отлично справляется с идентификацией отпечатков пальцев на изображениях, обработанных с помощью различных методов синтеза изображений на основе CNN. Однако исследователи предупреждают, что это одна битва - война с поддельными изображениями только началась.

Статья Изображения, созданные CNN, на удивление легко обнаружить… Пока находится на arXiv.

Автор: Линьян Ю | Редактор: Майкл Саразен

Мы знаем, что вы не хотите пропустить ни одной истории. Подпишитесь на наш популярный Synced Global AI Weekly , чтобы получать еженедельные обновления AI.

Нужен всесторонний обзор прошлого, настоящего и будущего современных исследований в области искусственного интеллекта? Отчет Тенденции развития технологий искусственного интеллекта вышел!

Вышел Отчет об адаптивности AI для публичной компании Fortune Global 500 за 2018 год!
Приобретите отчет в формате Kindle на Amazon.
Подайте заявку на участие в Партнерской программе Insight, чтобы получить бесплатный полный отчет в формате PDF.