Справедливость и предвзятость

Используя ИИ? Вы можете начать проводить оценку воздействия на права человека (HRIA)

Уроки европейской дискуссии о цели регулирования ИИ

В недавнем посте я сделал несколько прогнозов того, как администрация Байдена может изменить игровое поле ИИ. Главный вывод заключается в том, что регулирование ИИ произойдет раньше, чем вы думаете, и что вам лучше начать подготовку с внедрения внутреннего управления ИИ. Если вы работаете в Северной Америке, это поможет вам опередить регулирующие органы и конкурентов. Если вы ведете бизнес в Европе, вам потребуется, чтобы он соответствовал европейским законам.

Алгоритмические оценки воздействия (AIA) и такие инструменты, как регистры AI - это простой способ начать документировать свой AI. Однако с учетом последних событий вам может потребоваться добавить еще один инструмент в ваш набор инструментов управления ИИ: оценку воздействия на права человека (HRIA). Почему? Давайте посмотрим на бушующие в Европе дебаты по поводу регулирования ИИ и посмотрим, какие уроки мы можем извлечь. Некоторые из них могут скоро быть применимы к нам, поскольку подход США имеет общие черты с подходом, применяемым в Европе.

Оба подхода отдают предпочтение выборочному, целенаправленному регулированию с упором на конкретные секторы, а не «под одну гребенку». И оба говорят, что имеют значение цель, контекст и сфера применения технологии. Например, весьма спорное распознавание лиц может не представлять большого риска, если оно используется для разблокировки автомобиля, - говорит Эльхам Табасси, начальник штаба лаборатории информационных технологий в NIST. Это действительно зависит от варианта использования.

Регулирование ИИ: на основе рисков или ценностей?

Европейские дебаты были вызваны Белой книгой Европейской комиссии по искусственному интеллекту. Этот документ прошел общественные консультации в феврале 2020 года, и его обычно считают основой для предстоящего европейского законодательного предложения по ИИ. (Это предложение ожидается в первом квартале 2021 года). Газета получила множество откликов, в том числе очень критическое открытое письмо от более чем 60 организаций гражданского общества.

В основе дебатов лежит вопрос о том, должно ли регулирование ИИ основываться на оценке риска или на правах человека, а также будет ли подход, основанный на оценке риска, адекватным для защиты прав человека, в свете множества нарушений, документированных до сих пор. .

Комиссия считает, что подход, основанный на оценке риска, обеспечит пропорциональное, сбалансированное и целенаправленное регулирующее вмешательство. Такой подход защитит граждан и потребителей, не возлагая чрезмерного бремени на организации, внедряющие ИИ / машинное обучение, или сдерживая инновации в этой сфере. Такой подход также поможет законодателям и надзорным органам сосредоточить внимание на тех сферах, где вред наиболее вероятен. (И это, вероятно, поможет им лучше управлять ресурсами.)

Намерения Комиссии были подтверждены на прошлой неделе Лусиллой Сиоли, ее директором по искусственному интеллекту и цифровой индустрии. Она отметила, что Комиссия хочет создать процветающий рынок искусственного интеллекта. Она выступала на мероприятии Переход к справедливому ИИ: где возможности и угрозы?, Которое было организовано EURACTIV, независимой панъевропейской медиа-сетью, специализирующейся на политике ЕС.

В Белой книге комиссии предложены два критерия для определения того, является ли система искусственного интеллекта высокорисковой:

1) Если он «используется в секторе, где можно ожидать […] значительных рисков […] Например, здравоохранение; транспорт; энергетика и части государственного сектора ».

2) «Приложение AI в рассматриваемом секторе, кроме того, используется таким образом, что могут возникнуть значительные риски».

Комиссия также отметила, что некоторые приложения могут считаться высокорисковыми, даже если они не соответствуют вышеуказанным критериям. Например, использование искусственного интеллекта при приеме на работу квалифицируется так же, как «удаленная биометрическая идентификация и другие технологии интрузивного наблюдения». Так что же плохого в таком подходе, спросите вы?

Какова цель закона (AI)?

Первым предметом разногласий является цель закона об искусственном интеллекте / машинном обучении: установить стандарты, поддерживать порядок, разрешать споры и защищать свободы и права или способствовать внедрению ИИ при устранении связанных с этим рисков с определенным использованием этой новой технологии »»? В Белой книге Комиссии говорится, что она преследует обе цели - Комиссия привержена обеспечению научного прорыва, сохранению технологического лидерства ЕС и обеспечению того, чтобы новые технологии служили всем европейцам, улучшая их жизнь при уважении их прав.

В ответ Access Now написал, что освоение любой технологии, особенно в государственном секторе, не должно быть отдельной целью и само по себе не представляет ценности. Access Now - это некоммерческая организация, занимающаяся защитой цифровых прав и одна из подписавших вышеупомянутое открытое письмо. В продолжение Access Now пишет, что ИИ не является правильным решением во всех случаях и не должен рассматриваться как панацея.

Это совет, который я даю многим клиентам InfoTech: не все бизнес-задачи можно или нужно решать с помощью ИИ. ИИ - это лишь один из инструментов вашего бизнеса, и он не должен заменять другие подходы (в том числе некоторые низкотехнологичные).

По словам Access Now, вместо того, чтобы делать упор на внедрение ИИ, европейские регулирующие органы и законодатели должны «обеспечить надежность этой технологии, снизив риски». […] ЕС должен завоевать доверие людей своими инициативами в области ИИ, поставив защиту основных прав выше опасений по поводу глобальной конкурентоспособности ИИ. Основная цель должна состоять в том, чтобы избежать вреда для личности и общества, а не смягчить его ». (Там же.)

Это подводит нас к следующему пункту разногласий.

Должно ли регулирование ИИ быть реактивным или упреждающим?

Комиссия выделила несколько требований в дополнение к существующему законодательству, которые она планирует разработать для приложений искусственного интеллекта с высоким уровнем риска. (Эти требования могут быть далее конкретизированы как стандарты.) Их диапазон включает обеспечение соответствия обучающих данных, используемых в системах искусственного интеллекта / машинного обучения, правилам безопасности ЕС, раскрытие возможностей и ограничений систем, а также защиту автономии человека посредством контроля со стороны человека.

Все это хорошо и очень нужно, говорят критики предложения, но этого недостаточно. Подход, основанный на оценке риска, оставляет слишком много места для интерпретации и корпоративных юридических маневров. Между тем, автоматизированные системы принятия решений уже наносят вред людям, сообществам и окружающей среде, а также нарушают основные права человека. Эти права, однако, не подлежат обсуждению, и они должны соблюдаться независимо от уровня риска, связанного с внешними факторами. (выделено оригиналом)

Вышеупомянутое открытое письмо призывает Комиссию создать четкие нормативные красные линии для предотвращения использования искусственного интеллекта, нарушающего основные права. В письме говорится, что крайне важно, чтобы предстоящее нормативное предложение установило в законе четкие ограничения в отношении того, что можно считать законным использованием ИИ (выделено оригиналом). Другими словами, определенные варианты использования ИИ должны быть либо полностью запрещены, либо законодательно ограничены как несовместимые с демократическим обществом. Конкретно:

· Биометрическое наблюдение

· Предиктивное наблюдение

· ИИ в уголовном правосудии, например, инструменты оценки рисков

· Иммиграционный и пограничный контроль

· ИИ для социальной оценки и в системах, определяющих доступ к социальным правам и льготам, таким как социальное обеспечение, образование и занятость.

В открытом письме также содержится призыв к Комиссии «однозначно рассмотреть», что AI использует:

· Усугубить существующую структурную дискриминацию;

· Ограничить доступ к здравоохранению, социальному обеспечению и другим основным услугам;

· Позволяют слежку за работниками и нарушают их права;

· Способствовать крупномасштабному манипулированию общественным мнением и человеческим поведением (например, «подталкивание», дипфейки) и «связанным с ними угрозам человеческому достоинству, агентству и коллективной демократии».

Еще раз о правах человека

Согласно Управлению Верховного комиссара ООН по правам человека, Права человека - это права, которые у нас есть просто потому, что мы существуем как люди, - они не предоставляются ни одним государством. Эти универсальные права присущи всем нам, независимо от национальности, пола, национального или этнического происхождения, цвета кожи, религии, языка или любого другого статуса. Они варьируются от самых основных - права на жизнь - до тех, которые делают жизнь стоящей, например, права на питание, образование, работу, здоровье и свободу . Другими словами, права человека универсальны, неотчуждаемы, неделимы и взаимозависимы:

· Универсальный: они применимы к каждому человеку; мы все в равной степени обладаем всеми нашими правами человека.

· Неотчуждаемые: никто не может лишить человека прав человека «за исключением особых ситуаций и в соответствии с надлежащей правовой процедурой» - например, «если лицо признано виновным в совершении преступления судом».

· Неделимы и взаимозависимы: все права человека имеют равный статус; «Один набор прав не может быть реализован в полной мере без другого»; и нарушение одного права может негативно повлиять на другие права.

Права человека были кодифицированы во Всеобщей декларации прав человека (ВДПЧ), единогласно принятой Генеральной Ассамблеей ООН в 1948 году, и в последующих документах, которые вместе составляют Международный билль о правах.

Какое отношение имеют права человека к ИИ?

Если вы не следили за новостями о многочисленных злоупотреблениях и вреде, причиняемом ИИ и автоматизированными системами принятия решений, открытое письмо и две статьи Access Now (цитируемые выше) - хорошее место для начала.

Или вы можете взглянуть на отчет Amnesty International за 2019 год « Гиганты слежки: как бизнес-модель Google и Facebook угрожает правам человека ». В этом отчете четко объясняется, как повсеместная слежка Google и Facebook нарушает основные права человека, такие как право на достоинство, автономию и неприкосновенность частной жизни; право контролировать информацию о себе; и право на пространство, где мы можем свободно выражать свою идентичность.

Если вы хотите долго читать, вот несколько книг, которые я рекомендую:

· Оружие математического разрушения Кэти О’Нил

· Автоматизация неравенства Вирджинии Юбэнкс

· Женщины-невидимки Кэролайн Криадо Перес

· Пристрастие Дженнифер Эберхардт

· Общество черного ящика Фрэнка Паскуале

· Эпоха слежки за капитализмом Шошаны Зубофф

Также есть много видео. Одним из них является лейтмотив Кейт Кроуфорд NIPS 2017 Проблема с предвзятостью. Другой пример - это забавный трехминутный комедийный скетч на YouTube Шотландский лифт распознавания голоса - ОДИННАДЦАТЬ! », Который показывает, как предвзятые системы распознавания речи наказывают даже носителей языка.

Технологии искусственного интеллекта - не первое, что вызывает озабоченность с этической точки зрения

Я хотел бы вернуться к утверждению Access Now о том, что наши права не подлежат обсуждению, и их следует уважать независимо от уровня риска. Помимо военного применения ИИ (это тема, заслуживающая отдельного рассмотрения), нам нужно убедиться, что мы создаем системы, которые приносят пользу всему человечеству. Эта цель требует осторожного обращения с некоторыми технологиями и вариантами использования и, возможно, даже их запрета. Клонирование человека, например, неспроста запрещено в 70 странах. Тем не менее, клонирование других видов разрешено, в том числе коммерческое клонирование домашних животных и скота. Клонирование исчезающих видов на самом деле может гарантировать их выживание.

Возможно, нам также потребуется дополнить список прав человека новыми для эпохи искусственного интеллекта, например:

· Право на раскрытие информации: получение информации о том, как используются свои данные, как развиваются технологии и как они влияют на людей, сообщества, общество и окружающую среду;

· Право на отказ: выбор: использовать низкотехнологичный путь (где это возможно) или вместо этого взаимодействовать с человеком и при этом иметь возможность полноценно участвовать в экономике и обществе;

· Право на возмещение ущерба при работе с автоматизированной системой принятия решений;

· Право на информационное агентство;

· …

Что эти опасения означают для вашей организации?

Access Now утверждает, что бремя доказательства [должно] лежать на организации, желающей разработать или развернуть систему ИИ, чтобы продемонстрировать, что она не нарушает права человека, посредством обязательной оценки воздействия на права человека (HRIA). Это требование будет применяться ко всем приложениям во всех областях, и оно должно применяться как к государственному, так и к частному сектору в рамках более широкой системы комплексной проверки .

Согласны ли регулирующие органы с этим предложением, еще неизвестно. В любом случае, я поддерживаю Access Now и 60 организаций, подписавших открытое письмо о том, что HRIA являются основой для создания этичного, безопасного и ответственного ИИ. Более того, в зависимости от характера вашего бизнеса и регионов, в которых вы работаете, вы, возможно, уже проводите такие оценки. Следующим естественным шагом должно стать их распространение на ваши проекты AI / ML.

Не знаете, как начать работу с HRIA? - Проконсультируйтесь с этим отличным руководством Датского института прав человека. А вот Опыт компании Nestle по оценке воздействия на права человека в ее деловой деятельности.

HRIA помогут вам уберечь ваш ИИ и вашу организацию от тюрьмы (перефразируя Экспертную панель Джеймса Тейлора на конференции Predictive Analytics World 2020). Так вы можете лучше спать по ночам. Они также помогут вашей организации добиться конкурентных преимуществ и укрепить доверие, которое является основой бизнеса и общества.