Борьба с отмыванием денег — одна из самых насущных задач, стоящих перед финансовыми учреждениями. Учитывая низкое влияние текущих усилий по борьбе с отмыванием денег (AML) в сочетании с растущей сложностью угроз и растущим объемом данных для анализа, теперь необходимо изучить масштабы и ограничения искусственного интеллекта (ИИ). Эволюция RegTech оказывает преобразующее воздействие на финансы и их регулирование, поскольку рынок переходит от использования информации типа «Знай своего клиента» (KYC) к парадигме «Знай свои данные» (KYD). Регуляторным органам необходимо поощрять конкуренцию и инновации, защищая при этом потребителей и обеспечивая согласованность на всех рынках.

Индустрия финансовых услуг изучает новые способы использования ИИ, чтобы помочь им соблюдать банковские правила и улучшить обнаружение лиц, занимающихся отмыванием денег. На сегодняшний день системы ИИ лишь слегка регулируются. Способность демонстрировать и проверять соблюдение требований является краеугольным камнем текущей структуры AML, поэтому становится все более важным понимать искусственный интеллект и лежащие в его основе алгоритмы.

Борьба с отмыванием денег является серьезной глобальной проблемой, позволяющей преступным организациям скрывать свои доходы и финансировать дальнейшие операции. Мониторинг AML в финансовых учреждениях основан на правовых принципах и регулируется различными стандартами на национальном и международном уровнях.

Нормативная база для финансов нуждается в переосмыслении. Банковский и финтех-сектор смещает свое внимание с оцифровки денег на монетизацию данных, что делает необходимым создание новых структур для включения новых концепций, таких как суверенитет данных и надзор за алгоритмами.

Существующие инструменты мониторинга AML, основанные на правилах, обычно генерируют большое количество ложных срабатываний и создают значительную рабочую нагрузку. Одним из самых увлекательных случаев применения ИИ является борьба с финансовыми преступлениями. У ИИ есть два основных преимущества для банков, участвующих в этом столкновении: он может повысить эффективность и действенность расследований финансовых преступлений, а также управление рисками учреждения. В дополнение к тому, что финансовые учреждения помогают избежать рисков за счет более эффективного соблюдения нормативных требований, он может снизить затраты на столкновение, в основном за счет сокращения количества ложных срабатываний в системах мониторинга ПОД и перенаправления усилий специалистов по ПОД на другие, более продуктивные , зоны подозрительной активности. Тем не менее, индустрия финансовых услуг, похоже, не так уж открыта, когда дело доходит до тестирования новых решений ИИ. Это связано с опасениями по поводу так называемых моделей черного ящика. Это означает, что модель выполняет функции, непрозрачные для AML-департамента. Если банк не понимает, как его инструменты мониторинга отслеживают финансовые преступления, он не сможет объяснить своим регулирующим органам, как он соблюдает правила, верно?

Новые правила, такие как Общий регламент по защите данных (GDPR), не дают достаточно информации о том, что приемлемо в качестве объяснения решений, поддерживаемых ИИ. Например, статья 22 (1) гласит:

«Субъект данных имеет право не подвергаться решению, основанному исключительно на автоматизированной обработке, включая профилирование, которое имеет юридические последствия в отношении него или нее или аналогичным образом существенно влияет на него или ее».

Технологии искусственного интеллекта напрямую связаны с автоматизированным процессом. Субъекты данных будут иметь право на вмешательство человека со стороны контроллера данных, чтобы выразить свою точку зрения и оспорить решение. Они имеют право получить обоснование автоматизированного решения. Такое право указано в статье 15 Общего регламента по защите данных, «право доступа субъекта данных». Это соответствует аналогичному положению Директивы о защите данных 1995 года, позволяющему субъекту данных получать доступ к «важной информации о задействованной логике».

Соблюдение принципов защиты данных, добросовестное использование личных данных и законное право на разъяснение имеют важное значение для определения объема данных, используемых для обучения и работы ИИ, а также результатов и информации, которыми может делиться ИИ.

Обязательство по надзору за платежными операциями вытекает из Европейских директив по борьбе с отмыванием денег. В прошлом году Европейский парламент принял 5-ю директиву ЕС по борьбе с отмыванием денег. В настоящее время действуют требования 4-го Регламента ЕС по борьбе с отмыванием денег. Кроме того, мониторинг платежей основан на Европейском регламенте денежных переводов, вступившем в силу в прошлом году, без какой-либо процедуры имплементации.

Проблема возникает, когда ИИ становится настолько сложным и обрабатывает такие огромные объемы данных, что это невозможно объяснить. В статье 6 GDPR перечислены различные основания, на которых обработка данных будет законной, например, в целях законных интересов, преследуемых контролером. Учитывая огромные объемы данных, обрабатываемых технологиями ИИ, и их различные источники, как можно определить, были ли персональные данные собраны на законных основаниях?

Основным препятствием для развития RegTech являются не технологические ограничения, а способность регулирующих органов обрабатывать большие объемы данных, которые генерирует сама технология. Регуляторным органам необходимо принять скоординированный подход, направленный на гармонизацию финансового регулирования и поддержку дальнейшего развития RegTech. Кроме того, повсеместное распространение систем, использующих ИИ, привлекло повышенное внимание к тому, как следует регулировать эти системы. Системы искусственного интеллекта могут синтезировать большие объемы данных, обеспечивая более высокий уровень персонализации и точности, чем когда-либо прежде.

Несмотря на потенциал, растущая осведомленность и количество приложений ИИ вызвали споры об эффективности этих решений и степени, в которой ИИ можно доверять и в конечном итоге заменить человеческий анализ и принятие решений.

Чтобы лучше изучить и реализовать потенциал ИИ, индустрия финансовых услуг должна продолжать углублять свое понимание возможностей, рисков и ограничений ИИ и, что наиболее важно, создавать этические рамки, с помощью которых можно будет управлять разработкой и использованием ИИ. чтобы можно было доказать эффективность и влияние этих новых моделей и в конечном итоге доверять им.

Более сложная прослеживаемость и более трудоемкая проверка моделей ИИ сопряжены с риском. Объем этой проблемы зависит от используемого алгоритма. Традиционные методы, основанные на правилах, более прозрачны в отношении определенных правил. Но проверка результатов более продвинутых методов ИИ, особенно тех, которые включают обучение без учителя, является трудоемкой задачей. Кроме того, существует риск того, что значительный прогресс в качестве обнаружения в результате использования ИИ заставит преступников в будущем нацеливаться на банки, которые менее развиты в этой области. Этот эффект может усугубляться тем фактом, что обширная цифровизация уменьшает количество сотрудников по ПОД, которые могут выявлять нарушения.

Начальной точкой для разработки управления и контроля ИИ может быть использование и адаптация существующих модельных подходов к управлению рисками, которые применялись к ПОД в последние годы. Банки и финтех-компании могут использовать эти и другие соответствующие нормативные акты в качестве основы для разработки разумного подхода к внедрению ИИ, отвечающего ожиданиям заинтересованных сторон в отношении управления рисками.

Соблюдение принципов защиты данных, добросовестное использование личных данных и законное право на разъяснение имеют важное значение для определения объема данных, используемых для обучения и работы ИИ, а также результатов и информации, которыми может делиться ИИ.

Важной частью оценки рисков, связанных с данной процедурой, является полное понимание того, как эта процедура работает. Получение такого понимания может быть проблематичным с машинным обучением (ML), в зависимости от того, какие алгоритмы ML используются. Метод, с помощью которого некоторые алгоритмы ML генерируют свои прогнозы, может быть понят некоторым специалистом по данным, который имеет общее представление о статистике. Тем не менее, способ, которым большинство других сложных моделей алгоритмов машинного обучения производят свои выходные данные, может быть непонятен даже человеку, проводившему анализ.

AI и ML — это широкая область с различными уровнями сложности и прозрачности. При более глубоком изучении нейронные сети и глубокое обучение могут оказаться более сложными областями для построения доверия. Мы по-прежнему сталкиваемся с кучей вопросов:

  • Можно ли интуитивно доверять искусственному интеллекту, как человеческим решениям?
  • Или проблема черного ящика является препятствием для всеобщего признания технологии ИИ?
  • Должны ли существующие законодательные требования к объяснимости моделей распространяться на применение ИИ, так ли важно устанавливать общие стандарты?
  • Должны ли системы ИИ, используемые для отмывания денег, быть более регулируемыми?
  • Как можно установить минимальный стандарт объяснимости используемых алгоритмов в расследованиях по отмыванию денег?
  • Каким требованиям должны соответствовать алгоритмы, чтобы сгенерированные результаты могли быть использованы должностными лицами по ПОД?

Сегодня очень немногие из текущих решений AML, которые тестируются в банках, продвинулись дальше деревьев решений и кластеризации из-за этих оставшихся без ответа вопросов.