Предстоящий акт подойдет для A.I. что GDPR сделал для конфиденциальности

В моих предыдущих сообщениях я говорил о том, как ИИ риски не существуют в вакууме, и почему так важно иметь средства контроля, чтобы предотвратить случайное или преднамеренное неправильное использование ИИ.



Печальный факт заключается в том, что компании обычно отдают предпочтение прибыли, а не контролю, и стараются сократить расходы везде, где это возможно.

Если защита системы ИИ стоит слишком дорого, компания может просто решить не делать этого!

Именно здесь вступают в действие правила, обеспечивающие соблюдение минимального набора стандартов, которым должны следовать все

Регулирование важно, поскольку оно обеспечивает подотчетность корпораций и помогает гарантировать, что ИИ как технология имеет минимальные гарантии, установленные по всем направлениям.

Последствиями несоблюдения могут быть штрафы регулирующих органов или даже удаление системы ИИ с рынка.

С другой стороны, соблюдение правил может помочь компании продвигать свой продукт как «полностью соответствующий», что дает им конкурентное преимущество перед другими.

Глобальная нормативно-правовая база ИИ

Организации, занимающиеся созданием систем ИИ, исторически полагались на саморегулирование без особого надзора.

Не существовало конкретных правил, и системы ИИ подпадали под действие других правил, таких как защита данных или защита прав потребителей.

Видя связанные с этим потенциальные риски, правительства во всем мире принимают вызов и вводят новые правила, чтобы гарантировать выявление и надлежащее снижение рисков ИИ.

В США, ОАЭ, Китае и других странах принимается несколько законодательных актов, призванных занять лидирующие позиции в гонке ИИ.

Самое важное постановление, которое, как ожидается, окажет наибольшее влияние во всем мире, исходит от Европейской комиссии, которая в апреле 2021 года опубликовала предложение о новом законе о регулировании ИИ.

Подобно тому, как он заложил основу для глобальных законов о конфиденциальности данных с Общим регламентом защиты данных (GDPR) в 2018 году, ожидается, что этот закон будет иметь широкомасштабные последствия во всем мире.

Правила ЕС обычно в конечном итоге устанавливают стандарт для остального мира из-за всех компаний, которые в нем работают, поэтому мы можем ожидать, что этот закон станет образцом для других стран для разработки своих собственных законов об ИИ.

Закон ЕС об искусственном интеллекте — что вам нужно знать

Будучи первым в мире конкретным предложением по регулированию искусственного интеллекта (ИИ), проект Регламента ЕС об ИИ окажет огромное влияние на дебаты об ИИ и о том, как компании собираются внедрять ИИ в будущем. Сам закон использует риск-ориентированный подход к регулированию искусственного интеллекта и классифицирует системы ИИ следующим образом:

  1. Неприемлемый риск
  2. Высокий риск
  3. Ограниченный риск
  4. Низкий риск

Основной принцип, основанный на риске, заключается в том, что чем выше риск, который представляет система ИИ, тем больше обязательств у компании, чтобы доказать регулирующим органам, как система была построена и как она будет использоваться.

Системы, помеченные как неприемлемый ИИ, просто запрещены, например, системы, использующие технологии распознавания лиц, системы, используемые для социальной оценки, которые ранжируют людей на основе их надежности, и системы, которые манипулируют людьми или используют уязвимости определенных групп.

Основная часть регламента сосредоточена на системах искусственного интеллекта с высоким уровнем риска, которые должны соответствовать широкому набору технических требований, требований по мониторингу и соответствию, которые мы подробно рассмотрим в ближайшее время.

На системы, классифицируемые как системы с ограниченным риском, распространяются обязательства по обеспечению прозрачности, в то время как на остальные системы с минимальным риском не налагаются обязательства, но рекомендуется ввести кодексы поведения, чтобы обеспечить соблюдение передовой практики.

Как ИИ классифицирует требования в зависимости от риска

Системы искусственного интеллекта «высокого риска» в соответствии с предлагаемым законом ЕС

Закон определил системы ИИ как «высокорисковые», поскольку они могут потенциально угрожать жизни или здоровью людей или их основным правам. В законе также есть список систем искусственного интеллекта с высоким риском, некоторые из которых упомянуты ниже:

  1. критическая инфраструктура.
  2. образование и профессиональная подготовка.
  3. работа.
  4. доступ к основным частным услугам и общественным услугам и преимуществам и пользование ими.
  5. управление иммиграцией, убежищем и пограничным контролем; и
  6. отправление правосудия и демократические процессы.

Ключевым требованием к системам ИИ высокого риска будет прохождение оценки соответствия, регистрация в базе данных ЕС и подписание декларации, подтверждающей их соответствие. Думайте об оценке соответствия как об аудите, в ходе которого система ИИ будет проверена на соответствие требованиям регламента, перечисленным ниже:

● внедрение системы управления рисками.

● техническая документация и ведение записей.

● прозрачность.

● человеческий контроль.

● кибербезопасность.

● качество данных.

● постмаркетинговый мониторинг; и

● оценки соответствия

● и обязательства по отчетности.

Эти аудиты могут проводиться как самооценка компанией, производящей ИИ, или оценка третьей стороной (в настоящее время только ИИ, используемый в биометрических системах, должен пройти стороннюю оценку соответствия, в то время как другие могут просто пройти путь самооценки). Если система изменится после оценки, то процесс придется переделывать.

Следующая диаграмма иллюстрирует этот процесс:

После того, как оценка будет пройдена, результатом будет красивый логотип CE на вашем продукте, который подтверждает, что теперь он готов выйти на рынок для клиентов из ЕС.

Кто должен соблюдать?

Как и в случае с GDPR, сфера действия регулирования не ограничивается только ЕС, как и в случае с GDPR, закон может пересекать границы и применяться к:

● Поставщики, которые размещают системы искусственного интеллекта на рынке или вводят их в эксплуатацию в ЕС.

● Пользователи систем ИИ, находящихся в ЕС.

● Поставщики и пользователи систем ИИ, находящиеся в третьих странах, где результаты работы системы ИИ используются в ЕС (это будет важно для компаний, продвигающих свою продукцию в ЕС).

Как вы должны подготовиться?

Если вы когда-либо применяли GDPR ЕС, то вы бы поняли, что ЕС не бездельничает, когда дело доходит до несоблюдения, и может налагать серьезные штрафы за нарушение своих правил.

Новый закон об искусственном интеллекте также следует этой тенденции, и штрафы за использование запрещенных систем искусственного интеллекта (представляющих неприемлемые риски) могут достигать 30 миллионов евро или 6 процентов годового глобального дохода (намного выше максимального штрафа в соответствии с GDPR).

Компании, которые предоставляют властям вводящую в заблуждение информацию, также могут быть оштрафованы на максимальный штраф в размере 10 миллионов евро или 2 процента от мирового дохода.

Если ваша система искусственного интеллекта подпадает под действие нового закона, к этому нельзя относиться легкомысленно.

В то время как некоторые критикуют новый регламент ЕС за то, что он слишком ограничителен, в результате чего Европа может отстать от других стран в гонке за ИИ, шансы на то, что этот акт будет применяться, высоки, поэтому лучше начать подготовку сейчас, а не откладывать ее на потом. . Принятие конкретных мер сейчас гарантирует, что вы будете на правильной стороне этого правила, когда оно вступит в силу.

Первым и наиболее эффективным шагом было бы провести оценку пробелов в соответствии с этим регламентом и посмотреть, где находится ваша организация и что вы должны сделать, чтобы полностью соответствовать требованиям. Ваша компания потенциально может не иметь соответствующего опыта для проведения этих оценок, поэтому вам нужно будет обратиться к сторонним выдержкам, которые могут вам помочь. Еще одним шагом может стать создание системы управления ИИ в вашей организации для управления и снижения рисков ИИ по мере их появления.

Надеюсь, вам понравилось это читать. Если вам интересна эта тема, ознакомьтесь с моим курсом А.И. управление и кибербезопасность, в которой рассматриваются новые типы рисков ИИ и способы их снижения.

Таймур Иджлал — отмеченный множеством наград лидер в области информационной безопасности с более чем двадцатилетним международным опытом в области кибербезопасности и управления ИТ-рисками в финтех-индустрии. С Таймуром можно связаться в LinkedIn или на его канале YouTube Cloud Security Guy, на котором он регулярно публикует информацию об облачной безопасности, искусственном интеллекте и общие советы по карьере в области кибербезопасности.

Вы можете получить полный доступ ко всем историям на Medium всего за 5 долларов в месяц, зарегистрировавшись по ссылке ниже: