Мы больше не можем верить в то, что видим - это не люди, это компьютеры.

Когда мне было 13, единственное, что занимало меня глубокой ночью, было то, что в моей жизни был такой человек, как Форест Гамп - я больше не думаю, что существуют такие милые люди, как он. Кому бы не понадобился человек, которого встречал и хвалил Джон Ф. Кеннеди? Когда я впервые смотрел этот фильм, я был убежден, что мистер Гамп был моим типом парня, и что однажды я скажу вслух, как мы похожи на «Две горошины в стручке». В те дни, когда я был немым, я считал, что моя детская любовь встретила Джона Кеннеди, но мало что знала - манипуляции с видео были заклинанием, начавшимся в 1950-х годах.

Deepfakes - Что это такое и кто это начал?

Deepfake - это вид видео-мошенничества, при котором люди выглядят так, как будто они делают и говорят вещи, которые кажутся невозможными, спорными, а иногда и смешными. Подобно тому, как Photoshop помогал людям редактировать изображения задолго до того, как Deepfakes стал чем-то особенным, эта технология не только упрощает доступ к этим манипуляциям, но и делает все более трудным подвергнуть сомнению их подлинность.

Deepfakes начал с Генеративных состязательных сетей (GAN). Еще в 2014 году GAN установила прямой конфликт между двумя нейронными сетями, названными генератором и дискриминатором. Чтобы упростить понимание, эти два алгоритма должны были обучать друг друга. Первая должна была прикрыть подделку как можно более реальной, а вторая пыталась обнаружить подделку. Если бы у GAN могло быть столько приложений, то не было бы справедливым сказать, что GAN была основой технологии Deepfake - используемой для создания, манипуляций, привлекательных изображений, аудио и видео?

Термин дипфейки пришел от пользователя Reddit в конце 2017 года. В декабре Motherboard нашла пользователя Reddit по имени Deepfake, который прославился своим хобби - менять лица знаменитостей на тела порнозвезд. Страшно было не то, что это было возможно, а то, что все эти видео были убедительными и сбивали людей с толку. Знаменитости, в том числе Тейлор Свифт, Галь Гадот и Мэйси Уильямс, были первыми, кто подвергся экспериментам с порнографической стороной дипфейка.

Как это используется?

Ключевым элементом Deepfake является машинное обучение. Чтобы создать фальшивое видео с кем-то, создатель сначала обучает нейронную сеть реального видеоматериала человека в течение нескольких часов, чтобы глубоко понять его под разными углами, тенями и условиями освещения. Затем образованная сеть объединяется с технологией компьютерной графики, чтобы поместить копию человека поверх другого актера. Работающему человеку также необходимо вручную настроить многие параметры тренировки, чтобы избежать явных скачков и изъянов в изображении - это может показаться простым, но это не так.

В отличие от большинства систем распознавания лиц, которые преобразуют черты лица в уникальные компьютерные коды, технология Deepfake сочетает идентичность с деталями, которые мы даже не считаем сомнительными. Это кошмар, который не только противоречит вашим убеждениям, но и манипулирует общим мнением влиятельных лидеров, политиков, знаменитостей и почти всех.

Он распространяется быстрее света

В последнее время некоторые поддельные видеоролики стали очень популярными, и миллионы людей во всем мире использовали эту новую технологию. Кто помнит, как президент Обама ругался, описывая президента Трампа? Билл Хадер внезапно превращается в Аль Пачино в ночном ток-шоу, а рождественское видео, где королева Англии шутит над Гарри и Меган? Это лишь некоторые из них.

Количество Deepfake-контента в Интернете стремительно растет. Согласно отчету стартапа Deeptrace, в начале 2019 года в сети было 7964 видео Deepfake. Всего через 9 месяцев это число увеличилось до 14 678. Нет сомнений в том, что с тех пор он продолжает расти.

Сегодняшняя технология Deepfake очень впечатляет, но все еще не совсем подходит к настоящему объективу (имеет потенциал). Если присмотреться, можно легко определить, фальшивка ли это видео. Но технологии развиваются угрожающими темпами, и скоро мы поверим в то, что нереально - просто из-за того, как они выглядят.

Кроме того, это была надежда, которая открыла множество возможностей для бизнеса. В более широком смысле Deepfake - это тип синтетических носителей, производимых и модифицируемых ИИ, которые заняли свое место на огромном рынке. Несколько месяцев назад Samsung Next Ventures нарисовала ландшафтную карту в whitepaper. И они считают, что синтетические медиа - это начало третьей фазы развития медиа.

Дипфейки, написанные наоборот, - это катастрофа - она ​​разрушила наше общество

Приложение Deepfake для обмена лицами бесплатно и легко доступно через Интернет. Так что любой, у кого есть время, простые технические знания и мощный компьютер, может легко получить доступ к этой технологии и запачкать свои руки. Другие виды глубоких подделок более сложны. К счастью, это означает, что ваш риск падения как жертвы ниже - но подождите, они наполнены более опасными вещами и инструментами.

Да, такого рода манипуляции не новы. Однако достижений в области искусственного интеллекта, более легкого доступа к инструментам для редактирования видео, скорости и свободы этой технологии достаточно, чтобы положить конец нашему обществу. Не так давно скандальное веб-приложение DeepNude показало, как использовать эту технологию искусственного интеллекта, и позволило пользователям создавать настоящие обнаженные женские фотографии, просто загружая фотографии лиц в приложение. Он громко ревел, и многие люди использовали его как источник шантажа и манипуляций. Позже приложение было закрыто, но оно определенно разрушило многие жизни.

Нижняя линия:

Эта технология открывает множество возможностей, но опасность для человечества стоит больше, чем любая возможность. Прежде чем наши враги заставят людей поверить во что-то против нас, нашей экономики и нашего общества - этому колдовству нужно положить конец.

Увидеть - значит поверить - времена, когда искусственный интеллект и машинное обучение считались безопасными для всех, - теперь это не то же самое. Эту манипуляцию нужно прекратить, и нам нужно остерегаться, прежде чем она нанесет ущерб нашей личной жизни.