Мне очень приятно работать в качестве руководителя аппарата Партнерства по ИИ, некоммерческой организации, занимающейся этическим использованием ИИ во многих наших партнерских организациях (таких как Google, ACLU и т. д.). [Мнения, представленные в этом материале, являются моими собственными, а не обязательно взглядами моего работодателя.]

Недавно мы опубликовали отчет о технологиях искусственного интеллекта, которые становятся все более распространенными в системе уголовного правосудия США, призывая к осторожности и излагая ряд из десяти невыполненных требований, которым должна соответствовать такая система, прежде чем ее можно будет использовать в областях с высокими ставками (например, , что инструменты прогнозирования должны использовать доверительные интервалы, чтобы отражать их уровень неопределенности для пользователей).

Любопытно, что я задаюсь вопросом, может ли этот отчет способствовать прогрессу не только в области уголовного правосудия, из которой он родом, но и в других областях с высокими ставками. То есть, в какой степени этический прогресс может распространяться на важные варианты использования ИИ?

Чтобы сделать эти размышления немного более конкретными, позвольте мне выделить три категории опасений, которые мы высказали по поводу этих инструментов, которые часто используются для таких целей, как определение риска в оценках досудебного содержания под стражей:

  1. Обеспокоенность достоверностью, точностью и предвзятостью самих инструментов;
  2. Проблемы с интерфейсом между инструментами и людьми, которые с ними взаимодействуют; и
  3. Вопросы управления, прозрачности и подотчетности.

Следует отметить, что очень мало в высокоуровневых описаниях этих категорий относится к уголовному правосудию (хотя, безусловно, мы получаем более конкретное представление об уголовном правосудии в самих рекомендациях и в лежащих в их основе исследованиях, которые легли в основу этих рекомендаций). Означает ли это, что мы можем перенести аналогичные формы рекомендаций в другие крайне важные условия, такие как ИИ для здравоохранения?

По моему личному мнению, ответ, скорее всего, да: основа валидности инструмента; интерфейс инструмента (как люди вступают в контакт с инструментом); и подотчетность инструментов, по-видимому, охватывает многие проблемы, общие для других областей.

Например, в вышеупомянутом примере со здравоохранением можно убедиться, что медицинские данные получены из релевантного и отражающего срез общества; чтобы врачи и медсестры были должным образом обучены работе с системами, что поможет расширить их медицинские знания; и что существуют понятия ответственности и подотчетности в случаях, когда пациенты получают плохие результаты. Основные принципы нашего отчета, по-видимому, остаются в силе в этом случае, по крайней мере, в общих чертах, хотя, когда речь идет о сложных технологических развертываниях, мы знаем, что дьявол часто кроется в деталях.

Еще один способ решения проблем, связанных с использованием ИИ в этих областях с высокими ставками, хотя и несколько ортогональный вышеизложенному, состоит в том, чтобы разделить опасения по поводу развертывания ИИ на основные этические лагеря, к которым они причастны: учет намерений соответствующих участников (деонтологических) ; вероятные последствия развертывания технологии (консеквенциализм); и, возможно, некоторые штаммы этики добродетели говорят о том, что мы как общество используем технологии определенным образом (этика добродетели).

В этом смысле можно также создать полезную воспроизводимую основу для рассмотрения вариантов использования ИИ, надеюсь, без необходимости сначала решать многие неразрешимые проблемы этики! (Для интересного анализа всех различных способов, которыми группы начали бороться с подходами к этике ИИ, я рекомендую Принципиальный проект искусственного интеллекта Центра Беркмана Кляйна, одного из партнеров PAI.)

Одним из полезных результатов таких фреймворков является то, что в зависимости от того, насколько хорошо вы выбираете разные уровни системы ИИ, эти фреймворки могут позволить более детально обсудить и самоанализ того, где именно вам некомфортно при развертывании ИИ.

Например, распознавание лиц — очень актуальная тема в экосистеме ИИ сегодня, изобилующая возражениями на самых разных уровнях абстракции, и у меня есть гипотеза, что некоторые стороны взаимодействуют друг с другом, как корабли, проплывающие в ночи, а не способны углубляться в свои настоящие разногласия.

Рассмотрим идеалиста приватности, который возражает против общественного наблюдения с помощью ИИ, несмотря на потенциальную способность технологии быть беспристрастной с расовой точки зрения — или даже если бы ее можно было использовать для противодействия расовой предвзятости. В таких взглядах есть важные нюансы, и я надеюсь, что достаточно хорошая структура для вариантов использования ИИ позволит легко отображать различные возражения людей в отношении определенных приложений и, в свою очередь, лучше понимать других и взаимодействовать с ними. дебаты.

Как вы, возможно, догадались из спекулятивного тона этого сообщения, я, конечно, еще не решил эту проблему общей структуры, хотя это занимает много моего времени на размышления. Если у вас есть какие-либо идеи по этому поводу или вы хотите выпить кофе и поболтать, дайте мне знать — я всегда стараюсь расширить свое мышление здесь.

Стивен Адлер — бывший консультант по стратегии, специализирующийся на искусственном интеллекте, технологиях и этике.

Если вы хотите следить за проектами и статьями Стивена, обязательно подпишитесь на эту учетную запись Medium. Узнайте больше на LinkedIn.