Взгляд разработчика систем искусственного интеллекта

Искусственный интеллект быстро развертывается по всему миру во многих различных сценариях использования, при этом производители, разработчики и операторы должны следовать нескольким рекомендациям. Наряду со сложностью создания технологии остается много нерешенных юридических вопросов. Как технический директор стартапа, делающего технологии конфиденциальности доступными и легко интегрируемыми, я потратил значительное количество времени на размышления о пересечении конфиденциальности, искусственного интеллекта и ответственности. Совсем недавно я взглянул шире и стал обсуждать ИИ и ответственность в целом. Хотя многие разработчики и инженеры предпочли бы держаться как можно дальше от размышлений о законе (я был одним из них), такое отношение вполне могло вернуться и укусить нас. По мере того, как ИИ становится все более распространенным, на нас будет влиять способ арбитража сбоев в системах ИИ, а также то, кто и что считается виновным в данном сбое. Недавно мне подарили «Rechtshandbuch Artificial Intelligence und Machine Learning» (на английском языке: Legal Handbook of Artificial Intelligence and Machine Learning ») отличную книгу о юридических последствиях ИИ, которая охватывает вопрос ответственности.

Книга, отредактированная и опубликованная Маркусом Кауларцем и Томом Брейгельманном, представляет собой обзор одной из самых значительных юридических загадок, с которыми сталкиваются наши общества; а именно, что законы должны идти в ногу с технологиями, но должны делать это таким образом, чтобы не препятствовать инновациям. Мы специально рассмотрим главу 4.2, написанную Марен Вёббкинг, в которой исследуется тщательный баланс, который должен существовать между юридической ответственностью и технологиями, лежащими в основе искусственного интеллекта (ИИ). Ключом к достижению этого баланса являются точные измерения рисков, связанных с автономными системами, и тщательное распределение ответственности между производителями систем, операторами систем и сторонними наблюдателями.

Риски автономных систем

Например, при рассмотрении юридической ответственности в отношении автономных транспортных средств необходимо учитывать как (1) процессы автономного принятия решений, так и (2) отслеживаемость и объяснимость решений. Становится особенно очевидным, почему надлежащая прослеживаемость принятия решений важна для определения ответственности, когда мы специально рассматриваем катастрофические последствия, которые могут иметь фальсифицированные человеком входные данные для результата.

Вёббэкинг совершенно справедливо указывает на последствия взаимодействия человека с автономными системами, когда дело доходит до определения ответственности: большинство автономных систем по-прежнему в значительной степени полагаются на контролируемое или частично контролируемое обучение (что означает, что один или несколько человек должны сообщить системе, какие входные данные соответствуют выходным данным на этапе обучения), и появляется все больше литературы по состязательному машинному обучению, посвященной предотвращению множества способов, которыми входные данные в систему ИИ во время вывода и обучения могут приводить к совершенно неожиданным результатам / результатам.

Вообще говоря, сквозные подходы с использованием отдельной большой сети дают наилучшие результаты, но как можно точно определить сбой в такой системе? Подумайте о сложной системе, такой как автономный автомобиль, с несколькими сенсорными входами, такими как LIDAR и камеры, что произойдет, если калибровка камеры куда-то дрейфует? По этой причине, возможно, было бы лучше построить отдельные сети с четко определенными входами и выходами, но тогда это может повлиять на точность, увеличивая риск отказа.

В дополнение к рассмотрению потенциальных атак на модели искусственного интеллекта посредством использования вводящих в заблуждение вводных данных или даже незначительных неисправностей оборудования, которые пагубно изменяют входные сигналы, как упоминает Вёббекинг, ответственность человека состоит в том, чтобы определить, что автономная система используется в той же среде, в которой он находится. был обучен запускать (т.е. был создан для).

Другой аспект закона об ответственности должен учитывать, были ли приняты соответствующие меры для снижения рисков использования ИИ. В ограниченных средах, в которых в настоящее время развернут ИИ, они, похоже, фактически снижают риск выполнения определенных задач по сравнению с человеком, выполняющим ту же задачу. Снижение рисков станет все более актуальным и важным, если автономные системы будут развертываться в более разнообразных и менее ограниченных средах.

Строгая ответственность

Вёббэкинг переходит к обсуждению вопросов, которые могут быть охвачены действующим или новым законодательством об ответственности. Один особенно трудный вопрос, на который нужно ответить, заключается в том, должны ли риски, присущие современным автономным системам, которые иначе снижают риск, нести потерпевшая сторона, оператор или производитель.

Одна из возможных рамок, которая может применяться к автономным системам, - это строгая ответственность.

Строгая ответственность отличается от обычной небрежности, поскольку строгая ответственность устанавливает ответственность без вины. Другими словами, когда ответчик несет строгую ответственность за вред, причиненный истцу, он несет ответственность просто потому, что ущерб был причинен . - https://lawshelf.com/coursewarecontentview/introduction-to-strict-liability/

Производитель автономной системы - это сторона, которая имеет наибольшие знания и контроль над рисками, а также имеет наибольший стимул для сокращения затрат. Таким образом, возложение ответственности на производителя становится для них дополнительным стимулом к ​​тщательной оценке и снижению рисков. Однако привлечение производителей к строгой ответственности чревато серьезным риском сдерживания инноваций. Хотя производители имеют гораздо больший контроль, чем операторы, они не всегда могут контролировать, развернули ли операторы систему в соответствии с инструкциями. Сами операторы часто могут выбирать между использованием или отказом от автономной системы, которая им предоставляется. Их обязанности, хотя и ограничены, имеют решающее значение: снижение риска за счет использования системы в соответствии с инструкциями.

Пропорциональная ответственность

Альтернативная структура, которая может быть применена к автономным системам, - это система пропорциональной ответственности.

Пропорциональная ответственность - означает договоренность о передаче ответственности, в которой каждый член группы несет ответственность за финансовые результаты группы пропорционально своему участию. - https://www.irmi.com/term/insurance-definitions/proportional-liability

Программисты, поставщики данных, производители, все дальнейшие разработчики, третьи стороны, манипулирующие системой, операторы и пользователи - все они влияют на систему и способствуют принятию возможного неверного решения. Учет множественной причинности, хотя и сложнее, чем обвинение одной стороны, может быть правильным способом оценки ответственности. Предложенная ответственность может обойти любые запреты на инновации со стороны производителей, в то же время требуя большей ответственности безответственных производителей за то, что они не принимают меры по снижению рисков. Это поможет повысить вероятность того, что операторы примут необходимые меры предосторожности при использовании автономных систем.

Возмещение рисков

Наконец, Вёббэкинг постулирует, что возможное регулирование распределения любых рисков регресса и ответственности будет заключаться в объединении рисков с помощью решения по страхованию сообщества. Возможно решение, аналогичное закону о социальном обеспечении. Это, вероятно, позволило бы избежать сложностей, связанных с законом об ответственности, и (среди других преимуществ) также смягчило бы недостатки конкретного распределения рисков.

Дальнейший комментарий

Каким бы ни было юридическое будущее ИИ, у разработчиков систем ИИ есть несколько ясных выводов о том, что мы можем сделать сейчас, чтобы подготовиться; а именно:

  1. Четко задокументируйте процесс проектирования и тестирования;
  2. Следуйте передовым методам разработки программного обеспечения - например, без динамического выделения памяти и без использования рекурсии;
  3. Будьте очень внимательны при разработке наборов для валидации и тестирования. И убедитесь, что после каждого крупного обновления системы используется новый набор тестов;
  4. Учитывайте предвзятость.

Избранные соответствующие ресурсы (цитируется по Kaulartz / Braegelmann)

Https://ec.europa.eu/digital-single-market/en/news/policy-and-investment-recommendations-trustworthy-artificial-intelligence

Https://standards.ieee.org/industry-connections/ec/autonomous-systems.html