Все знают о проблеме фейковых новостей, возникшей не так давно, которая привела к суду Цукерберга и повлекла за собой политические и социальные проблемы. Но могу вас заверить - мы находимся в начале гораздо более серьезного испытания: искусственный интеллект генерирует поддельный видеоконтент или «дипфейки». А это означает войну.

Во-первых, давайте не будем недооценивать происходящее. Все началось публично с фальшивых видеороликов Обама и Путин, в которых говорилось то, чего они никогда не скажут. Позже на Reddit появилась более легкая и, в некотором смысле, более тревожная реализация - дипфейк-порно-видео с известными (в основном женщинами) актерами в качестве участников и фейковые сцены из фильмов. Недавно китайское телевидение выпустило новостной ИИ - несомненно мирное, но очень качественное создание.

Все это возможно и становится все более и более доступным с использованием генеративных нейронных сетей или GAN. Раньше вам приходилось использовать дорогостоящие технологии и оборудование для захвата физического движения и, конечно же, иметь в своем распоряжении интересного человека, и я сомневаюсь, что по соседству у вас есть Скарлетт Йоханссон, которая охотно снялась бы в качестве CGI-модели в вашем видео (у которой, кстати, также есть пал как жертва дипфейка и был публично недоволен этим).

Все, что нужно GAN, - это надлежащий набор данных выступлений целевого человека, новый текст, который он или она должен сказать, и оригинальное видео, чтобы смешаться. Кроме того, многие модели GAN имеют открытый исходный код для вашего удобного использования, это не какой-то засекреченный инопланетянин. tech.

Но это все о каких-то вещах высокого уровня, политике, начинаниях, верно? Неправильный. Это о тебе.

На данный момент требуется довольно большой набор данных для обучения нейронной сети (и это сужает технологию до публичных фигур), но это очень короткий период - я имею в виду период в несколько лет - несколько видеороликов человека было бы достаточно. Сети GAN стремительно развиваются вместе со всей индустрией машинного обучения, и новые исследования, требующие меньшего набора данных и более мощные производственные результаты, не заставят себя ждать.

Представьте, что на вашем месте несколько раз припарковался сосед. Все, что вам нужно сделать, это сделать пару видеороликов с ним и вуаля - очень убедительно выглядящий неприятный фрагмент контента с участием этого чувака, популярный в чат-группе по соседству и на Facebook, и все это создается на вашем мобильном телефоне за считанные минуты. Вот что действительно происходит.

Как бы футуристично это ни звучало, это вовсе не научная фантастика, и с этим согласны авторитетные исследователи и влиятельные СМИ. Агентство перспективных исследовательских проектов Министерства обороны США (DARPA) финансирует собственный набор инструментов для отлова дипфейков под названием Media Forensics. MIT Technology Review помещает дипфейки в топ-5 новых киберугроз, о которых стоит беспокоиться в 2019 году. AI Foundation работает над плагином для браузера под названием Defend Reality для борьбы с тредом. Techcrunch, Материнская плата, что угодно - все это касается предстоящих повреждений.

И этот ущерб - именно то, что мы пытаемся предотвратить в новом научно-исследовательском проекте AIDA (Глубокая аналитика искусственного интеллекта).

Генерация дипфейков не идеальна и оставляет на видео определенные следы, позволяя автоматически обнаруживать фальшивый контент.

Сложная нейронная сеть AIDA выполняет анализ каждого кадра на основе сравнения нескольких параметров изображения, чтобы обозначить вероятность мошенничества, и точность относительно высока для текущего поколения GAN.

После выпуска AIDA API может использоваться глобальными новостными источниками и платформами социальных сетей для проверки видеоконтента, размещенного пользователями или отправленного из «анонимных источников».

Но не дайте себя обмануть - нет и не будет никакого высеченного в камне абсолютного оружия для поля битвы дипфейков. Нейронные сети неизбежно и быстро развиваются с более сложной архитектурой, представляя новые угрозы сообществу, а также AIDA со своим собственным ИИ будет разрабатывать новые способы защиты. Сейчас мы только в начале войны.

Зарегистрируйтесь, чтобы получить ранний доступ к альфа-версии AIDA.