Что поставлено на карту для компаний или частных лиц, когда видящие или слышащие больше не верят?

Тот факт, что люди видят что-то подобное, верят, что это правда, и все рынки могут реагировать на это, вызывает огромную озабоченность у людей.

Аудио дипфейки

Новейшая атака, которую мы наблюдаем и которую люди не ожидали, в некотором смысле - это использование звуковых дипфейков для финансовых махинаций.

За последние несколько месяцев компания Symantec, занимающаяся безопасностью, сообщила, что она видела три попытки мошенничества в компаниях с использованием звуковых дипфейков топ-менеджеров. В одном случае компания потеряла 10 миллионов долларов в результате телефонного звонка, в ходе которого генеральный директор запросил перевод денег на дипфейк аудиозаписи. Виновные до сих пор не пойманы.

Это ничем не отличается от того, что вы могли бы увидеть, например, о таких силах, как Alexa или некоторых других подобных продуктах. И генеральный директор ответит на любой ваш вопрос, потому что они могут быть созданы на лету.

Прибыльная сторона

Deepfakes также предлагает возможности получения прибыли для некоторых компаний. У вас был бы актер, который лицензировал бы свое подобие, а затем, по очень низкой цене, студия могла бы выпускать все виды маркетинговых материалов с их подобием, не проходя тот же уровень производства, который они делают сегодня, вы знаете. И поэтому я могу представить, как много-много аудио создается с использованием голоса актера, голоса кого-то другого VIP и все это монетизируется.

Теперь этим занимается Amazon. В сентябре 2019 года было объявлено, что устройства Alexa могут говорить голосом таких знаменитостей, как Сэмюэл Л. Джексон.

В Instagram А. сгенерированные влиятельные лица, такие как Лил Микела, поддерживаются деньгами Кремниевой долины. Дипфейк-видео этих виртуальных влиятельных лиц привлекают миллионы подписчиков, что означает большой потенциальный доход без необходимости платить талантам за работу.

А в Китае поддерживаемое правительством СМИ представило виртуального ведущего новостей, который может работать 24 часа в сутки. Я буду работать не покладая рук, чтобы держать вас в курсе, поскольку тексты будут непрерывно вводиться в мою систему.

Месть порно

Но вероятность неправильного использования высока. Таким образом, одно из самых коварных применений дипфейков - это то, что мы называем порнографией из мести или порнографией, которую кто-то выпускает, чтобы отомстить тому, кто, по их мнению, обидел их. Так бывает и со знаменитостями. Но, безусловно, подобные вещи, которые испортили бы репутацию знаменитости или кого-то еще в глазах общественности, будут главной заботой этих социальных сетей.

Выборы и глобальная стабильность

Также главный приоритет для компаний, занимающихся социальными сетями: выборы 2020 года. Исследователи ожидают, что на выборах 2020 года, вероятно, будут развернуты глубокие фейки. Будет ли он развернут иностранным государством, стремящимся вызвать нестабильность? Это возможно. И это могло быть значительным. В этом случае кандидат скажет что-то совершенно возмутительное. Или что-то, что воспламеняет рынки, или что-то, что ставит под сомнение их шансы на избрание.

Также существует озабоченность по поводу фальшивых слов лидеров стран, лидеров организаций, таких как МВФ, которые имели бы серьезные последствия, даже если бы они были краткосрочными, для рынков и даже для глобальной стабильности в условиях конфликта.

Facebook

В мае спикер палаты представителей Нэнси Пелоси обвинила Facebook в распространении дезинформации, когда компания отказалась удалить сфабрикованное видео с ее участием. В ответ Facebook обновил свою политику проверки контента, вдвое увеличив свой отказ удалять дипфейки. Два британских художника проверили решимость Facebook, разместив в Instagram дипфейк генерального директора Марка Цукерберга. Тот, кто контролирует данные, контролирует будущее. Facebook не сдавался, отказываясь удалить его вместе с другими дипфейками, такими как Ким Кардашьян и президент Трамп.

Теперь Facebook пытается опередить дипфейки, прежде чем они появятся на его платформах. Компания потратила более 10 миллионов долларов и в партнерстве с Microsoft запустила Deepfake Detection Challenge в конце года. Сам Facebook будет создавать дипфейки с платными актерами, которые будут использоваться в челленджах. Затем прошедшие предварительную проверку участники будут соревноваться за финансовые призы, чтобы создать новые инструменты с открытым исходным кодом для определения поддельных видео.

И, по крайней мере, до тех пор, пока Facebook не объявил денежные призы, бизнес-потенциал в области обнаружения был невелик. На самом деле еще не существует сегмента рынка для защиты от дипфейков, который еще не сформировался. Технология новая. Ландшафт угроз только начинает вырисовываться, или что-то в этом роде. Таким образом, мы первые или одни из первых среди компаний, которые разрабатывают и поставляют технологии для этого.

Одна из лучших особенностей задачи Facebook заключается в том, что она привлекает множество людей, которые, вероятно, не интересовались этой технологией, чтобы попробовать и поработать над ней, и я думаю, что нам действительно нужно в сфере дипфейков найти что-то, что это роман, о котором мы раньше не думали, который помогает их обнаруживать.

Твиттер

Twitter сообщил CNBC, что еженедельно проверяет от восьми до 10 миллионов учетных записей за нарушения политики, в том числе за использование Twitter для введения в заблуждение других.

Twitter - это уникальная открытая служба, позволяющая выяснять ложь в режиме реального времени. Они активно применяют политики и используют технологии, чтобы остановить распространение контента, распространяемого с помощью тактических манипуляций.

А недавно он приобрел лондонский стартап Fabula A.I., у которого есть запатентованный A.I. Система называется геометрическим глубоким обучением, которая использует алгоритмы для обнаружения распространения дезинформации в Интернете.

YouTube

На YouTube, принадлежащем Google, правила сообщества запрещают вводить в заблуждение, и видео регулярно удаляются за нарушение этих правил. В прошлом году Google запустил программу, специально направленную на обнаружение фальшивого звука, включая собственную автоматическую проверку спуфинга говорящего, предлагающую исследователям принять меры против фальшивой речи.

Программное обеспечение для обнаружения

Одна небольшая компания, занимающаяся кибербезопасностью, уже запустила инструмент с открытым исходным кодом, который помогает создавать алгоритмы для обнаружения дипфейков.

Наша платформа работает так, что мы ежемесячно загружаем миллиарды частей контента. Текст, изображения, видео и многое другое. Итак, в этом случае, когда видео проходит через нашу платформу, мы будем направлять его через обнаружение дипфейка, в котором говорится, что это дипфейк, а не дипфейк, и, если это дипфейк, предупредить наших клиентов.

ZeroFOX из Балтимора намеревается первыми заставлять клиентов платить за предупреждение о дипфейках. Тем временем академические учреждения и правительство работают над другими решениями.

Другой подход состоит в том, чтобы создать реестр, в котором люди могут регистрировать свой подлинный контент, а затем другие люди могут проверять реестр, чтобы узнать, действительно ли этот контент является подлинным или нет.

Исследовательское предприятие Пентагона, получившее название Агентство перспективных оборонных исследовательских проектов (DARPA), борется с глубокими подделками, сначала создавая свою собственную, а затем разрабатывая технологию, которая может ее обнаружить.

Регулирование начинается

Даже если вы можете обнаружить дипфейки, в настоящее время мало средств правовой защиты, чтобы их остановить.

По большей части, на этом этапе они законны для исследования и создания. По большей части, если вы публичный человек, вы действительно не владеете правами на свои публичные выступления или даже на видео, снятые без вашего согласия публично. Есть некоторые вещи, которые неясны в отношении закона, но по большей части это также относится только к обычным людям, которые публикуют видео о себе на Facebook и YouTube.

Но если ваше изображение используется в контенте для взрослых, это, скорее всего, незаконно в таких штатах, как Калифорния, где порно из мести карается тюремным заключением на срок до шести месяцев и штрафом в размере 1000 долларов.

Например, многие порносайты заявили, что не разрешат хостинг дипфейков или загрузку глубокого фейкового порно.

В Китае стало вирусным приложение deepfake, которое позволяло пользователям прикреплять свои лица к популярным видеоклипам. Но в начале этого месяца приложение было закрыто из соображений конфиденциальности, поскольку приложение сохранило права на изображения пользователей.

В июне конгрессмен из Нью-Йорка Иветт Кларк представила в Палате представителей Закон об ответственности DEEPFAKES. От создателей потребуется сообщать, когда видео было изменено или создано, и позволить жертвам подать иск.

Проблема с киберзаконами

Такой закон не может привести к судебному разбирательству против кого-то, кто находится в стране в Восточной Европе или где-либо еще по всему миру, который уже доказал свою враждебность по отношению к США, когда дело доходит до обеспечения соблюдения наших законов о кибербезопасности.

Если вы намерены опубликовать дипфейк, а не проследить за ним до вас, существует множество способов сохранить анонимность.

AI vs AI

Люди, защищающие нас от дипфейков, используют искусственный интеллект. так же, как люди, которые их создают, используют искусственный интеллект. Просто у тех, кто создает дипфейки, похоже, есть разбег.

Хорошо это или плохо, но дипфейки становятся только более изощренными. Проблема будет в том, сможет ли технология их обнаружения и предотвращения не отставать.

Люди, которые создают дипфейки по гнусным причинам, намного опередили нас. Я думаю, что у них есть доступ к A.I. это более продвинуто, чем то, что у нас есть, работая над решением и, безусловно, доступ к большему количеству ресурсов, чем мы до сих пор предоставили людям для борьбы с проблемой. Надеюсь, это изменится с тем, что происходит сейчас.

Может показаться простым, но то, как мы продвигаемся вперед в век информации, будет определять, выживем ли мы или станем своего рода антиутопией.