Бен Хупер и Ин Ву

Избранный президент Европейской комиссии Урсула фон дер Ляйен пообещала внести предложения по закону об искусственном интеллекте в течение первых 100 дней своего пребывания в должности. ЕС примет подход, основанный на правах человека, к этим усилиям по регулированию, сосредоточив внимание на воздействии на отдельных лиц и определяя потенциальный вред со ссылкой на концепции прав человека, такие как личное достоинство и автономия. Такой подход имеет три важных следствия.

Во-первых, политическая дискуссия вокруг разработки нового закона об искусственном интеллекте, скорее всего, будет сосредоточена на том, что следует запретить или ограничить, а не на том, как поощрять разработку и внедрение важной новой технологии, которая может повысить производительность и принести более широкие социальные выгоды.

Во-вторых, правозащитный подход имеет тенденцию исключать из рассмотрения определенные виды компромиссов. Если возможный вред определяется с точки зрения прав человека, то только весомые «общественные интересы» — такие как государственная безопасность или предотвращение и выявление серьезных преступлений — могут оправдать исключения из нормативных правил. Потенциальные потребительские выгоды или перспектива большей динамики в экономике, как правило, недостаточны.

В-третьих, формулировка вреда с точки зрения прав человека означает, что режим будет уделять первоочередное внимание заблаговременному минимизации риска возникновения такого вреда. Учитывая сложность прогнозирования, это почти неизбежно приводит к чрезмерно инклюзивным правилам, то есть таким, которые — в процессе запрета инноваций, которые могут нанести вред, — также запрещают инновации, которые могут привести к хорошим результатам для потребителей или общества. Напротив, выжидательный подход позволил бы больше экспериментировать на рынке и целенаправленно устранять ущерб, если и когда он возникает.

Особенности, а не ошибки?

Сторонники подхода, основанного на правах человека, скорее всего, считают эти последствия особенностями, а не ошибками: вместе они должны свести к минимуму риск целого ряда социальных вредов, которые не могут быть устранены напрямую после события, таких как манипулирование избирателями с помощью ИИ или ИИ. закодированная предвзятость в системе уголовного правосудия. Они представляют собой реальные и серьезные угрозы, и выжидательный подход к регулированию может с трудом сдержать их до того, как будет нанесен непоправимый ущерб.

Можно утверждать, что важность предотвращения таких видов вреда оправдывает ограничение роста ИИ. Однако позиция ЕС более амбициозна. Он хочет предотвратить этот вред, но также утверждает, что его предпочтительный режим регулирования одновременно будет стимулировать рост ИИ в ЕС. Как устроен круг в квадрате? Утверждением, что рост требует доверия, и что доверие поддерживается подходом, основанным на правах человека.

Это утверждение, безусловно, удобно для ЕС. Но реальных доказательств этому нет. И вялая реакция на недавние усилия ЕС по пилотному тестированию Руководящих принципов по этике для заслуживающего доверия ИИ предполагает, что компании остаются неубежденными.

Заявление также поразительно похоже на другое заявление ЕС о том, что GDPR будет стимулировать цифровую экономику, повышая доверие потребителей. Но это последнее утверждение выглядит все более подозрительным. Хотя потребители сообщают, что они заботятся о конфиденциальности, их поведение предполагает, что конфиденциальность играет незначительную роль в их онлайн-решениях — явление, известное как «парадокс конфиденциальности». Со временем мы можем увидеть появление «парадокса ИИ», когда потребители говорят, что не хотят, чтобы ИИ диктовал их выбор, но на практике тяготеют к компаниям, которые больше всего полагаются на ИИ.

Рискованная ставка

Таким образом, ЕС, по сути, просто надеется, что доверие будет стимулировать рост ИИ. Имеет ли это значение?

Это зависит от того, что делает остальной мир. ЕС стремится возглавить глобальные дебаты по регулированию ИИ. Может показаться, что GDPR — многообещающий прецедент.

GDPR стал считаться глобальным золотым стандартом регулирования конфиденциальности, и он вдохновил другие юрисдикции на обновление своих законов о конфиденциальности.

Но другие юрисдикции могут считать сохранение лидерства в области ИИ более важным, чем соблюдение стандартов конфиденциальности. А реальность такова, что другие ключевые игроки — Китай и США — вряд ли последуют их примеру, когда дело доходит до регулирования ИИ. Китай считает, что коллективное благо так же важно, как и индивидуальные права, а это означает, что действия китайских регуляторов могут носить совершенно иной характер. Теоретически США ближе к ЕС, но широкомасштабное законодательство по регулированию ИИ на федеральном уровне кажется отдаленной перспективой.

В мире, где ЕС становится регуляторным исключением, надежда ЕС на то, что доверие будет стимулировать рост ИИ, выглядит рискованной ставкой.

Если окажется, что доверие не является основным двигателем роста, то в ЕС будет введен режим регулирования, который ограничивает инновации, но не дает конкурентных преимуществ. Другие юрисдикции с более либеральными режимами с большей вероятностью будут привлекать ведущие таланты и со временем взращивать самые успешные компании, основанные на искусственном интеллекте. Неясно, будут ли другие меры, которые ЕС в настоящее время рассматривает для стимулирования цифрового сектора Европы, достаточными для преодоления разрыва. И режим ЕС не сможет гибко реагировать на различные компромиссы в интересах потребителей или для повышения динамизма рынка. Эти типы компромиссов будут исключены с самого начала.

В этом будущем потребители и предприятия ЕС будут предпочитать продукты иностранных компаний, основанные на искусственном интеллекте, своим более надежным конкурентам из ЕС. В результате ЕС будет все труднее применять свой более ограничительный режим. Конкуренция в виде более мощного или эффективного ИИ будет всего «на расстоянии одного клика». Управление предпочтениями клиентов в цифровом пространстве потребует еще больших усилий и ресурсов.

Но потеря доверия — это гораздо больше, чем практические аспекты правоприменения. ИИ, похоже, станет самой важной технологией следующих нескольких десятилетий. Учитывая эти ставки, проигрыш в глобальной гонке ИИ будет иметь огромные последствия для будущей конкурентоспособности ЕС.