Все, что нужно знать о технологии DeepFake

Когда появились мобильные приложения, такие как Snapchat, все наслаждались технологией распознавания лиц. Мы были счастливы применять фильтры к нашим лицам, чтобы стать тем, кем мы не являемся. Технологии распознавания лиц развивались, а затем встретились с искусственным интеллектом, чтобы создать то, что называется Deepfakes.

Слово «глубокое подделка» представляет собой соединение терминов «глубокое обучение» и «подделка». Концепция заключается в создании мультимедийного контента, как правило, видеороликов, показывающих людей, участвующих в событии, в котором они никогда не участвовали на самом деле.

Как работает дипфейк?

Deepfake — это технология на основе искусственного интеллекта, в которой используется генеративно-состязательная сеть (GAN). Входными данными алгоритма являются мультимедийные материалы, которые он использует для изучения лица человека со всех сторон.

Для создания дипфейка ИИ необходимо предоставить исходное видео, человека, которого нужно заменить, и человека, который займет его место. В каждом кадре ИИ использует данные, собранные из входных данных, чтобы идеально поменять местами двух людей.

ИИ также способен клонировать человеческий голос. Некоторые инструменты упрощают процесс, так что все, что нужно сделать пользователю, это ввести предложение, а затем ИИ генерирует речь голосом целевого человека.

Применение дипфейка

До сих пор применение Deepfake ограничено любителями и некоторыми извращенными тенденциями.

Слово Deepfake становится синонимом порно. Большинство видеороликов, доступных в Интернете, посвящены подделке секс-лент знаменитостей.

Это началось на Reddit, когда пользователь Reddit под псевдонимом «deepfakes» создал несколько поддельных порновидео с лицами известных актрис, таких как Галь Гадот из «Чудо-женщины». Позже Reddit отреагировал запретом того, что он называет «принудительной порнографией».

Как и в случае с эволюцией искусственного интеллекта, применение этой технологии может быть вредным. Если использовать его против политиков и знаменитостей, он может нанести непоправимый ущерб. Хуже всего то, что аудиовизуальный контент потеряет доверие, поскольку мы не сможем отличить настоящее от подделки. Если каждый видеоклип потенциально может быть подделкой, зачем верить чему-то реальному?

Увидеть — значит поверить, так было до сих пор. Да, мы знакомы со спецэффектами и компьютерной графикой, но они использовались в конкретных случаях, например, чтобы заставить нас поверить в какие-то сверхъестественные события. Но теперь цель может быть чисто личной или политической. Сейчас мы слышим об использовании Deepfake для порноместь, завтра он может быть нацелен на кандидата в президенты.

Какова юридическая ситуация?

Как поясняется в статье Mashable, с юридической точки зрения сложно построить веские доводы в пользу жертв Deepfake.

Вы можете заявить об авторских правах, если сами сняли исходный материал. В то время как для подачи иска о клевете создатель Deepfake должен заявить, что это вы в видео.

Если вы знаменитость, вы можете заявить о себе, если другой человек пытается выиграть на этом деньги.

В конце концов, все эти разговоры о дипфейках — наше последнее средство. Поскольку люди признают существование этих фальшивых видео, надеюсь, их будет сложно использовать для разрушения жизни других людей.

** Эта статья взята с сайта: https://www.geekroutine.com