Впервые это появилось в Блоге цифрового дискурса SIIA.

7 ноября 2017 года я сделал короткую презентацию на мероприятии AI Caucus, посвященном искусственному интеллекту и этике, краткое изложение которого приведено в этом блоге.

Эрик Бриньолфссон и Эндрю Макафи, два самых продаваемых профессора бизнес-школы Массачусетского технологического института, называют ИИ и машинное обучение «самой важной универсальной технологией нашей эпохи».

Думаю, это правильно. И это не только Facebook и Google; Члены SIIA используют его для предоставления персонализированных образовательных услуг и расширенных сервисов бизнес-аналитики. Дайан Пинто из SIIA ведет еженедельный блог о разработках в области искусственного интеллекта: поисках предателя Анны Франк, борьбе с раком, страховании после урагана, обнаружении поддельных товаров. От сельского хозяйства до фармацевтики. От автономного транспортного средства, управляемого ИИ, до программного обеспечения для поддержки принятия клинических решений. Это везде.

Технология сделает нас коллективно богаче и более способными обеспечивать человеческое благосостояние, права человека, человеческую справедливость и воспитание добродетелей, необходимых нам для хорошей жизни в сообществах. Мы должны приветствовать это и делать все возможное для его продвижения.

Как и с любой новой технологией, здесь есть проблемы. Работа - одно из них. Роботы возьмут на себя все рабочие места?

В прошлом году SIIA выпустила информационный бюллетень Искусственный интеллект и будущее труда, предназначенный для рассмотрения возможности того, что нашей экономике потребуется меньше человеческого труда. В прошлом нам всегда удавалось увеличивать производство, сохраняя при этом полную занятость в долгосрочной перспективе. Сделать это непросто или автоматически. Это требует вложений в образование и обучение, и всегда есть краткосрочная дислокация.

Так мы перешли от аграрной экономики к производственной и сервисной. В 20-м веке мы первыми внедрили идею всеобщего образования, чтобы справиться с этим огромным переходным периодом, и создали самых грамотных и умеющих считать рабочую силу в мире. Это был прогрессивный и дальновидный подход, который до сих пор приносит свои плоды.

Но с машинами, движущимися вверх по цепочке создания стоимости от мускулов и мускулов к когнитивным и эмоциональным задачам, от рутинных задач, которые можно заменить с помощью компьютерного программирования «если-то» в старом стиле, к нестандартным задачам, которые можно легко и дешево выполнить с помощью машины. система обучения, на этот раз все может быть иначе.

Директивным органам необходимо подумать о том, как сфокусировать технологию на автоматизации, ориентированной на человека, и сделать инвестиции, необходимые для обеспечения того, чтобы люди были обучены хорошо работать с машинами и были способны выполнять множество новых задач, которые не были автоматизированы и не будут выполняться. , по крайней мере, при нашей жизни.

Есть этические проблемы, выходящие за рамки работы. Будут ли новые технологии честными и прозрачными? Будет ли выгода распространена на всех? Усилят ли они существующее неравенство?

Организации, которые разрабатывают и используют системы искусственного интеллекта, нуждаются в этических принципах, которые помогут им справиться с проблемами, которые уже стоят перед нами, и теми, которые ждут впереди. Именно это и попытался сделать SIIA в информационном бюллетене Этические принципы искусственного интеллекта и аналитики данных, который мы опубликовали и распространили на мероприятии. Он основан на классических этических традициях прав, благосостояния и добродетели, чтобы позволить организациям тщательно изучить свои методы обработки данных и тщательно протестировать свои алгоритмы, чтобы убедиться, что они делают то, что мы от них хотим. В нем рассматриваются многие из этических принципов, которые были разработаны для работы со сложными моральными ситуациями, включая принципы Бельмонта милосердия, уважения к людям и справедливости, которые были разработаны для экспериментов над людьми в университетах.

Нам необходимо восстановить нашу способность мыслить этическими категориями, и мы надеемся, что эти принципы станут практическим и действенным руководством.

Организации нуждаются в процессах и принципах для оценки своих систем искусственного интеллекта, чтобы гарантировать соответствие используемых данных и моделей этим этическим нормам. Краткое описание проблемы описывает программы управления данными и моделями, которые можно использовать для этой цели. И он применяет эти принципы и процессы к одной важной этической проблеме - обеспечению того, чтобы используемые алгоритмы были справедливыми и беспристрастными.

Этические принципы и процессы будут иметь ключевое значение для помощи компаниям в решении стоящих перед ними задач, но некоторые предлагают выйти за рамки этого и принять меры регулирующих органов.

Некоторым из этого есть место - в конкретных областях, где проблемы являются неотложными и должны быть решены, чтобы вообще развернуть технологию. Подумайте о необходимости понять ответственность за автономные автомобили или установить нормативную базу в FDA для систем поддержки клинических решений.

В общем, мы еще недостаточно знаем, чтобы регулировать ИИ как таковой.

Более того, нам, возможно, никогда не понадобится регулировать ИИ как таковой. ИИ - это техника, а не основное предприятие. Это не что-то одно; так что действительно маловероятно, что когда-либо может существовать общий подход или федеральное агентство, регулирующее ИИ как таковое. Это как иметь регулирующее агентство для статистического анализа!

Это не означает, что технология не регулируется, а ее окружение похоже на Дикий Запад. Действующие законы и постановления по-прежнему применяются. За использование ИИ карты бесплатного выхода из тюрьмы нет. Это не защита от нарушения закона. Вы не избежите ответственности в соответствии с законами о справедливом кредитовании или справедливом жилищном обеспечении, объяснив, что вы использовали технологию искусственного интеллекта для дискриминации.

Возможно, потребуется адаптировать действующий закон или постановление в конкретных случаях, когда есть пробелы. Например, Бюро финансовой защиты потребителей прямо сейчас изучает, нужно ли делать что-то новое для решения проблемы использования альтернативных данных и моделей, использующих методы машинного обучения для оценки кредитоспособности.

Действительно, администраторам и политикам полезно подумать о том, есть ли в государственных учреждениях достаточный опыт в области ИИ, чтобы обеспечить надлежащий надзор за новой технологией, поскольку она применяется в областях, находящихся под их юрисдикцией.

Тем временем организациям необходимо руководство, чтобы адаптироваться к многочисленным этическим проблемам, с которыми они столкнутся при внедрении этой технологии. Принципы благотворительности, уважения к людям, справедливости и воспитания добродетелей могут предоставить дорожную карту и некоторые важные препятствия для ИИ и расширенной аналитики данных.