Технологии, основанные на искусственном интеллекте (ИИ) и машинном обучении (МО), в последние годы значительно расширили возможности, доступность и широкое распространение, и их рост не собирается останавливаться. В то время как наиболее заметные технологии ИИ продаются как таковые (например, «персональные помощники», такие как Amazon Alexa, Apple Siri и Google Home), методы, основанные на обучении, используются за кулисами гораздо шире. От поиска маршрута на картах Google до языкового перевода, биометрической идентификации до политических кампаний и управления производственными процессами до логистики продуктов питания, банковского дела и финансов до здравоохранения — ИИ насыщает современный подключенный мир во всех аспектах.

Кроме того, с адаптацией ИИ для всех продуктивных вариантов использования, количество киберпреступлений с использованием ИИ, таких как мошенничество с идентификацией, основанное на дипфейках или синтетических изображениях и дипфейковых видео, уже растет. Deepfakes — самая быстрорастущая тактика, используемая мошенниками. Мошенники теперь обращаются к синтетическим идентификаторам для открытия новых учетных записей. Личность любого человека может быть полностью сфальсифицирована или представлять собой уникальное сочетание ложной информации, которая может быть украдена или изменена, идентифицирующая личность (PII), которая может быть взломана из базы данных (фишинг у ничего не подозревающего человека) или куплена в даркнете. Из-за ограниченного воздействия на тех, чья личная информация была скомпрометирована или украдена, часто такого рода мошенничества остаются незамеченными дольше, чем традиционные мошенничества с идентификацией.

Дипфейки — это результат использования искусственного интеллекта для цифрового воссоздания внешности человека с большой точностью, что позволяет кому-то буквально создать впечатление, что кто-то говорит что-то, чего он никогда не говорил, или появляется там, где никогда не был. YouTube изобилует примерами разного качества, но легко увидеть, как хорошо сделанный дипфейк может быть убийственным для того, кто стал злонамеренным.

Дипфейки были признаны одной из самых серьезных преступных угроз искусственного интеллекта (ИИ) на основании широкого спектра приложений, которые он может использовать для преступной деятельности и терроризма.

Когда этот термин был впервые придуман, идея дипфейков вызвала всеобщее беспокойство, в основном связанное с неправильным использованием этой технологии для распространения дезинформации, особенно в политике. Еще одна проблема, которая возникла, была связана с тем, что злоумышленники используют дипфейки для вымогательства, шантажа и мошенничества с целью получения финансовой выгоды.

Рост дипфейков и синтетических технологий с искусственным интеллектом облегчает мошенникам создание очень реалистичных изображений или видео людей для этих синтетических удостоверений личности, чтобы совершать серьезные мошенничества. Существует множество мобильных приложений, которые позволяют любому убедительно заменить лица знаменитостей своими собственными, даже в видеороликах и превращаясь в вирусный контент в социальных сетях.

Поддельный аудио- или видеоконтент оценивается экспертами как наиболее тревожное использование искусственного интеллекта с точки зрения его потенциального применения для киберпреступности или кибертерроризма, согласно исследователям из Университетского колледжа Лондона, которые опубликовали рейтинг того, что эксперты считают опасным. самые серьезные угрозы преступности ИИ.

В одном из исследований, опубликованном в журнале Crime Science и финансируемом Центром будущих преступлений Дауэса в Калифорнийском университете (и доступном в качестве политического брифинга), определены 20 способов использования ИИ для содействия совершению преступлений в течение следующих 15 лет. годы. Они были ранжированы в порядке беспокойства — в зависимости от вреда, который они могут причинить, возможности получения преступной прибыли или выгоды, того, насколько легко их будет осуществить и насколько трудно их остановить.

Больше всего беспокоят аудио/видео имитации, за которыми следуют специализированные фишинговые кампании и использование беспилотных автомобилей в качестве оружия. Поддельный контент будет трудно обнаружить и остановить, и он может преследовать самые разные цели — от дискредитации общественного деятеля до извлечения средств путем выдачи себя за сына или дочь пары во время видеозвонка. Такой контент может привести к широко распространенному недоверию к аудио- и визуальным доказательствам, что само по себе нанесло бы вред обществу.

Помимо создания поддельного контента, пять других преступлений с использованием ИИ были сочтены очень важными. К ним относятся использование беспилотных транспортных средств в качестве оружия, создание специализированных целевых фишинговых атак, нарушение работы систем, контролируемых ИИ, сбор онлайн-информации в целях крупномасштабного шантажа и создание поддельных новостей, созданных ИИ. В то время как некоторые из наименее тревожных угроз — угрозы включают подделку, поддельные обзоры, созданные ИИ, и преследование с помощью ИИ.

В отличие от многих традиционных преступлений, преступления в цифровой сфере можно легко распространять, повторять и даже продавать, что позволяет продавать преступные методы и предоставлять преступление как услугу. Это означает, что преступники могут отдать на аутсорсинг более сложные аспекты своей преступной деятельности с использованием ИИ. Эти преступления можно классифицировать как низкую, среднюю или высокую степень угрозы.

Низкие угрозы

Низкие угрозы дают преступникам мало преимуществ, поскольку они причиняют небольшой вред и приносят небольшую прибыль, обычно не очень достижимы и их относительно легко победить. В порядке возрастания эти угрозы включали подделку, затем преследование с помощью ИИ и некоторые формы поддельных новостей, созданных ИИ, и, наконец, предвзятая эксплуатация (или злонамеренное использование алгоритмов платформы), боты-взломщики (небольшие удаленные дроны с достаточным количеством ИИ, чтобы помочь со взломом путем кражи ключей или открытия дверей) и избежать обнаружения системами ИИ.

Умеренные угрозы

Эти угрозы оказались в целом более нейтральными, при этом четыре соображения в среднем оказались ни хорошими, ни плохими для преступника, с несколькими исключениями, которые все же уравновешивались. Эти восемь угроз были разделены на две части серьезности. Первая часть содержала

· Бомбардировка рынка (манипулирование финансовыми рынками с помощью торговых моделей)

· Обман распознавания лиц

· Выселение из Интернета (или блокирование кому-либо доступа к основным онлайн-сервисам)

· Автономные ударные дроны для контрабанды и транспортных сбоев.

Вторая часть в среднем диапазоне включала

· Кибератаки на основе обучения,

· Искусственно интеллектуальная DDoS-атака

· Snake Oil, где поддельный ИИ продается как часть услуги, представленной в ложном свете

· Отравление данными и военные роботы

Поскольку внедрение ложных данных в программу машинного обучения и захват автономных инструментов поля боя могут вызвать серьезные опасения.

Высокие угрозы

Наконец, было много угроз, которые были оценены группами экспертов как очень опасные. Преступления, как

· Нарушение работы систем, управляемых ИИ

· подстрекательские поддельные новости, созданные искусственным интеллектом

· Масштабный шантаж

· Индивидуальный фишинг (или то, что мы обычно называем целевым фишингом).

· Использование автономных транспортных средств в качестве оружия чуть выше этого

Угроза, которая считается наиболее выгодной для преступника по всем четырем параметрам, — это использование аудио/визуального олицетворения, чаще называемого дипфейками.

Конечно, только потому, что некоторые угрозы, такие как дипфейки, гораздо более эффективны, чем другие, не означает, что вы можете игнорировать эти другие угрозы. На самом деле, верно обратное. Хотя то, что кто-то буквально вкладывает слова вам в рот, очевидно, вредно, также может быть чрезвычайно вредно иметь множество негативных отзывов, размещенных в Интернете, независимо от того, были ли они сгенерированы искусственным интеллектом или нет.

В мире, который становится все более онлайновым, возможности для бизнеса в значительной степени мигрируют в Интернет. В результате вам необходимо убедиться, что ваш бизнес защищен от онлайн-угроз всех видов — опять же, независимо от того, задействован ли ИИ.