Изучение этических дебатов, которые определят будущее машинного обучения

Можно сказать, что мы всегда живем в будущее. У людей есть интересный способ игнорировать настоящее как наше будущее пять минут или пятьсот лет назад.

Независимо от того, как это изложено, это будущее, в котором искусственный интеллект принимает решения, влияющие на человеческие жизни, уже здесь.

Кажется, только вчера, когда Tesla выпускала свою первую Model S, мы все одновременно были взволнованы, встревожены и сомневались. Что это будет значить для будущего автомобиля? Вскоре после этого на флот были загружены обновления автопилота. На ум пришла совершенно новая серия вопросов.

От какого контроля мы готовы отказаться? Насколько безопасны беспилотные автомобили? Как они справятся с неожиданными обстоятельствами?

Прежде чем распаковать это, давайте совершим небольшое путешествие по переулкам памяти. Точнее, взглянем на предсказания из научной фантастики. Творческие умы, стоящие за многими книгами и фильмами, наметили для нас несколько сценариев. От оптимистических утопий до мрачных антиутопий будущего - повсюду существуют интригующие образы продвинутого ИИ.

Три закона робототехники

Американский писатель Исаак Азимов привел три правила в своем научно-фантастическом рассказе 1942 года «Обход». Они описывают принципы, по которым все роботы должны действовать при взаимодействии с людьми.

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  2. Робот должен подчиняться приказам людей, за исключением случаев, когда такие приказы противоречат Первому закону.
  3. Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму закону.

Азимов не мог знать, что его сочинения когда-нибудь будут применимы к нашим собственным, вполне реальным роботам и беспилотным транспортным средствам. Уйдя из жизни в 1992 году, он подошел к познанию этой истины гораздо ближе, чем некоторые думают.

Помимо защиты самого себя, идея о том, что продвинутый ИИ защитит людей любой ценой, является совершенно оптимистичным взглядом. Что Азимов не прописал в этих законах, так это то, как роботы в его рассказах будут иметь дело с приоритетом человеческой жизни над ... другими человеческими жизнями.

Отступая от второго закона, стоит отметить, что нам еще предстоит рассмотреть более мрачный сценарий. Что, если мы самостоятельно преодолеем этические дилеммы и столкнемся с продвинутым ИИ, который не согласуется с нашими приказами? Что, если он проигнорирует наше желание сменить полосу движения, включить музыку или, что еще хуже, избежать очевидных катастроф?

Проблема необходимости расставлять приоритеты в определенных жизнях в непредвиденных обстоятельствах заключается в том, что вода становится мутной. Как люди, мы верим, что наши моральные компасы достаточно хорошо нам помогут. По крайней мере, до такой степени, что мы, вероятно, сможем оправдать цель, а не средства. Когда дело доходит до спасения жизней, это довольно универсальная истина, что мы хотим спасти как можно больше людей, столкнувшись с опасной для жизни катастрофой.

Как мы можем передать эту непоколебимую веру в искусственный интеллект?

Наши собственные этические предпочтения как создателей будут определять свод правил для машин. В 2016 году Массачусетский технологический институт провел полевое исследование, искусно замаскированное под онлайн-опрос, чтобы определить, каких предпочтений придерживается общественность. В частности, как они будут взвешивать человеческие жизни, если их заставят это сделать. Моральная машина требовала решения моральных дилемм, с которыми теоретически мог бы столкнуться беспилотный автомобиль; выбирая, кто живёт и умирает в предсказуемой аварии.

Каким бы мрачным и запутанным это ни казалось на первый взгляд, опрос просто прикрывал современную обложку более старой дискуссии: Проблема тележки. Гипотетический сценарий, предложенный в 1967 году Филиппой Фут, основан на принятой этике.

Короче говоря, проводник сбежавшего троллейбуса должен выбирать между убийством пяти невинных людей или одного невиновного человека на пути. Что было бы правильным сделать?

Примерно 50 лет спустя мы применяем тот же эксперимент к нашему программированию беспилотных транспортных средств.

Спасите всех. Но сначала спаси меня.

Примерно в то же время, когда Массачусетский технологический институт начал свое исследование, насколько мы все вдумчивы, Science Daily опубликовала объяснение »нашей самоотверженности.

«Большинство людей хотят жить в мире, где автомобили минимизируют количество несчастных случаев», - говорит Ияд Рахван, доцент Медиа-лаборатории Массачусетского технологического института и соавтор новой статьи, в которой описывается исследование. «Но каждый хочет, чтобы его собственная машина защищала его любой ценой».

Неужели так трудно поверить? Мы хотим, чтобы все были в безопасности; пешеходов, собак, даже белки, на которую мы время от времени сворачиваем, а потом сигналяем, чтобы доказать, кто здесь главный.

Основополагающий принцип заключается в том, что во время вождения мы в первую очередь заботимся о себе и своих пассажирах. Это никого не делает морально банкротом. Это делает нас людьми.

Назад к моральной машине.

После того, как миллионы людей из 233 стран прошли викторину Массачусетского технологического института, было собрано огромное количество данных. Конечный результат: глобальные предпочтения продемонстрировали спасение молодых вместо старых, больше жизней вместо меньшего и (извините, Фидо) людей, а не животных.

Хотя ничто из этого не шокирует, учитывая, что люди в среднем по миру довольно заботливы. Теперь у нас есть значительный объем данных, которые помогут разработать программу принятия решений для автономных транспортных средств. Создатели теста призвали политиков рассматривать эти результаты как «строительные блоки», а не как шаблон для программирования.

Компании обдумывали эту тему до исследования Массачусетского технологического института. Крис Урмсон из Google уже высказался по поводу их планов, чтобы автомобили изо всех сил старались не задеть незащищенных участников дорожного движения: велосипедистов и пешеходов. Позже в 2018 году один из беспилотных автомобилей Uber убил пешехода, переходившего улицу в Аризоне.

Это не возвращение к чертежной доске, но между всеми автопроизводителями должен быть очень реальный разговор.

«Если все или большинство автомобилей являются самоуправляемыми, небольшие изменения в поведении будут иметь большое значение: иными словами, решения, принятые сегодня инженерами, будут определять не то, как едет одна машина, а то, как едут все машины. Алгоритмы становятся политикой ».

- Йоханнес Химмельрайх, научный сотрудник по междисциплинарной этике Стэнфордского университета.

У нас могут быть способы использовать передовое машинное обучение и принятие решений в беспилотных транспортных средствах. Этот процесс не происходит в вакууме, и необходимо осознавать более широкие эффекты.

В интервью The Verge Патрик Лин, директор группы Ethics + Emerging Sciences в Калифорнийском политехническом университете, задумался о том, что будет дальше.

«То, что происходит с автономными транспортными средствами, может задать тон для других ИИ и робототехники, поскольку они первыми интегрированы в общество в широком масштабе. Поэтому важно, чтобы разговор был как можно более информированным, ведь на кону буквально жизни ".

Хотя примеры из художественной литературы интересно рассматривать, в этих историях есть некоторые реалии. По мере того, как такие компании, как Boston Dynamics, выводят своих динамических гуманоидных роботов в онлайн, будущее продвинутых помощников ИИ кажется достаточно близким, чтобы прикоснуться к ним. Это может включать поддержку пожарных и спасательных служб, а также медицинского персонала.

Представьте себе, что у вас есть самый точный ассистент хирурга искусственного интеллекта с чрезвычайно устойчивыми руками, не подверженный стрессу или недосыпанию.

Если применить опрос Массачусетского технологического института к чрезвычайным ситуациям, не связанным с вождением автомобиля, то можно будет изучить очень сложные сценарии. Нет сомнений в том, что эти вопросы задаются, и машинное обучение будет адаптировано ко всему человеческому опыту. Я надеюсь, что в результате будущее будет светлым с возможностями.

Я не могу не задаться вопросом, как мне, возможно, придется адаптировать свой моральный компас, когда за рулем идет искусственный интеллект.

Спасибо за прочтение! ✖ Оставляйте комментарии ниже или свяжитесь со мной в Facebook, Instagram и Twitter!

Если вам понравилось то, что вы прочитали, подпишитесь на мою рассылку новостей! Вы получите полезные идеи, вдохновение и комментарии о предпринимательском пути.