Deepfake — это технология манипулирования изображениями и видео, которая трансформирует элементы, присутствующие в медиаконтенте. Немного запутанно, не так ли? Позвольте мне помочь вам.

Представьте, что ваш друг присылает вам видео, на котором он встречается с президентом США Дональдом Трампом или проводит время с Селеной Гомес. Вы будете потрясены. Вы тут же пытаетесь понять, как, черт возьми, он это сделал.

Он просто использовал Deepfake, чтобы выдать себя за кого-то другого или наоборот. Это технически сложно, но очень эффективно и мощно, а также опасно.

Нужно ли упоминать, что у чего-либо подобного есть самый высокий шанс стать вирусным? Только представьте, что произойдет, если видео, на котором президент Трамп предлагает своим военнослужащим ядерную атаку на Северную Корею. Катастрофический.

Недавно в Интернете появилось видео комика Билла Хейдера, перевоплощающегося в Тома Круза. Видео — идеальный шедевр интеграции Deepfake. Я настоятельно рекомендую вам посмотреть видео и убедиться в этом лично.

Без сомнения, Билл Хейдер аккуратно действовал, как Том Круз и Сет Роген. Но что еще более интересно, вы должны заметить эффективность этой технологии и простоту точного управления видеоконтентом.

Что такое дипфейк?

Deepfake — это технология синтеза изображений человека, основанная на генеративно-состязательных сетях (GAN), изобретенных Яном Гудфеллоу (который в настоящее время работает в Apple). GAN — это системы машинного обучения, в которых две разные нейронные сети (генеративная и дискриминативная) пытаются обмануть друг друга с помощью заданных наборов данных.

Этот метод учит генерировать новые данные с той же статистикой, что и заданный обучающий набор. Например, GAN, обученная работе с фотографиями, может генерировать новые фотографии, которые по крайней мере внешне выглядят аутентичными для человека-наблюдателя и обладают многими реалистичными характеристиками.

Применение GAN быстро растет, и результаты на самом деле удивительны. Например, модель Speech2Face может реконструировать изображение лица человека после прослушивания его голоса. Samsung AI представила модель, в которой даже из одного изображения можно создать видеоклип любого человека. FaceApp, популярное приложение для преобразования изображений, работает по аналогичной технологии дипфейков.

В настоящее время Deepfake ограничен манипуляциями только с головой, но он наверняка расширится до полных трансформаций тела. Эта ситуация действительно тревожна, когда видео является наиболее широко потребляемым контентом. Особенно с появлением социальных сетей слухи могут распространяться быстрее, чем когда-либо. Слухи, которые нелегко отличить от реальности.

Легко ли создавать дипфейки?

Нет. Пока это непросто. Обучение моделей, предоставление миллионов наборов изображений и их обработка — ресурсоемкая задача, которую невозможно выполнить в обычной среде разработки. Алгоритм буквально часами тренируется, чтобы сгенерировать один дипфейк. Короче говоря, создание дипфейков требует опыта, а также дорогого оборудования.

Ждать. Мир технологий работает не так.

Точно. Я не знаю, правильно это или нет, но исследователи из Университета Бар-Илан в Израиле и Открытого университета Израиля разработали быструю, уменьшенную версию реализации GAN.

Фактически, они также отправили проект с открытым исходным кодом на Github для дальнейшей разработки. И, конечно же, их технология намного более продвинута с генерацией дипфейков в реальном времени и чрезвычайно недорога. Они разработали программу FSGAN таким образом, чтобы она могла работать на минимальных аппаратных требованиях.

Исследовательская работа FSGAN: Субъектно-гностическая замена лица и реконструкция доступна на arXiv.org.

Как распознать дипфейк?

Глубокие подделки трудно обнаружить. Фактически, для правильно созданных дипфейков их манипуляции невозможно обнаружить. Чем эффективнее тренировочные наборы и процесс создания, тем сложнее их обнаружить.

Но есть методика обнаружения дипфейков. Это требует внимательного наблюдения и присутствия духа. Например, при изменении лица можно наблюдать изменения линии подбородка, скул и даже бровей. Вы также можете заметить, что на трансформированных лицах глаза мигают очень редко. Некоторые части могут даже казаться размытыми. Вот как вы можете угадать, является ли определенное видео поддельным или реальным.

Конечно, технологии совершенствуются с каждым днем. Глубокие подделки будут оптимизированы, как и методы их обнаружения. Но как только проблемы с доверием возникли, их почти невозможно решить. Поскольку фальшивые новости и видео становятся все более незаметными, мы обязаны не доверять им. Я надеюсь, что технологические гиганты, особенно компании, работающие в социальных сетях, серьезно отнесутся к этому вопросу. А пока давайте подождем и посмотрим на влияние технологии Deepfake.

Сайонара.

Вам может понравиться: Вы действительно думаете, что 5G — это просто еще одна высокоскоростная беспроводная технология?

Первоначально опубликовано на https://thebigrex.com 24 августа 2019 г.