Как чрезмерное доверие к ИИ может доказать, что человек полагается на интуицию в моральных суждениях

В своей статье Моральные рассуждения: намеки и утверждения авторы Джозеф Пэкстон и Джошуа Грин приходят к выводу, что есть веские основания полагать, что люди занимаются моральными рассуждениями и что моралисты могут влиять друг на друга, не просто изменяя интуицию друг друга, но путем передачи моральных принципов, которые могут быть использованы для преодоления моральных интуиций, включая интуиции, которые в противном случае доминировали бы в поведении. и двухпроцессная модель Джошуа Грина. В исследовании утверждается, что на моральные рассуждения между людьми можно влиять не просто путем изменения моральной интуиции другого, но также путем изменения контролируемых ими когнитивных процессов. Другими словами, в исследовании утверждается, что когда дело доходит до морального прогресса, «голова может быть не менее незаменимой, чем сердце.

Модель Грина проводит разграничение между деонтологическими моральными суждениями… суждениями, которые, естественно, рассматриваются как отражающие заботу о правах и обязанностях и утилитарными/консеквенциалистскими суждениями… суждениями, направленными на достижение большего блага. больше подвержены влиянию моральной интуиции, в то время как утилитаристские/консеквенциалистские суждения считаются более подверженными влиянию разума. Однако мне интересно, до какой степени Пакстон и Грин преувеличивают человеческую способность разума превзойти эмоции или интуицию. Мне любопытно, как их гипотеза может подтвердиться в сочетании с выводами недавней области исследований, изучающей чрезмерное доверие людей к роботам. Моя собственная гипотеза состоит в том, что те же основные психологические факторы, которые заставляют людей чрезмерно доверять роботам как в деонтологических, так и в утилитарных суждениях, указывают на опровержение модели Грина и повышение ценности SIM-карты Хайдта.

Согласно Аянне Ховард и др. Все ведущие специалисты по автоматизации сверхдоверия в своей статье Излишнее доверие в эпоху роботов определяют сверхдоверие как ситуацию, в которой человек неправильно понимает риск, связанный с действием, потому что человек либо недооценивает потери, связанные с нарушением доверия ; недооценивает вероятность того, что робот совершит такую ​​ошибку; или и то, и другое. [3] Важно отметить, что они намеренно используют термин «доверие, чтобы передать представление о том, что при взаимодействии с роботами люди склонны демонстрировать поведение и отношение, сходные с ситуациями, связанными с взаимодействием между людьми». [ 4] Логически говоря, то же самое потенциально можно сказать и по моральным соображениям; что с точки зрения морального влияния люди склонны демонстрировать такое же поведение и отношение, что и в сценариях, связанных с взаимодействием между людьми.

Ховард и др. В статье утверждается, что доверие к «интеллектуальным технологиям становится все более распространенным явлением. В некотором смысле, это более крайняя версия предвзятости автоматизации, которая представляет собой тенденцию людей полагаться на автоматизированные технологии, когда им предоставляется противоречивая информация». [5] В поддержку этого утверждения они опираются на три тематических исследования. Первое упомянутое исследование является хорошо известным исследованием экстренной эвакуации. После того, как им показали робота, который изо всех сил пытался проложить свой путь через пространство, участников исследования подвергли имитации экстренной эвакуации. Участники, выйдя из комнаты для эвакуации, столкнулись с тем же роботом, что и раньше. Робот в различных экспериментальных условиях был запрограммирован так, чтобы направлять их в альтернативном направлении, откуда они исходили, и в противоречии со стандартным знаком аварийной эвакуации. Вопреки здравому смыслу, 95% участников либо следовали указаниям робота, либо стояли рядом с ним во время чрезвычайной ситуации.[6] Как сообщается в статье, после исследования большинство участников заявили, что следовали за роботом, потому что чувствовали, знал больше, чем они, или что он не будет или не может быть запрограммирован на то, чтобы сбивать людей с пути. [7]

Подобное слепое чрезмерное доверие было продемонстрировано исследователем С. Бутом и его командой, изучавшим взаимодействие человека и робота. Как указано Howard et. все Бут и его коллеги исследовали, как чрезмерное доверие к роботам может поставить под угрозу физическую безопасность. В их сценарии робот появлялся у запертой двери общежития и просил ничего не подозревающих людей или группы помочь войти в здание. Роботу разрешалось входить группами примерно в 70% случаев; когда робот нес еду, люди предоставляли ему доступ примерно в 80% случаев. Пятнадцать участников подозревали, что робот может быть потенциальной угрозой взрыва; тем не менее, 13 из 15 все равно предоставили доступ роботу. [8] Даже вопреки более рациональному суждению, включая тех, кто определил робота как потенциальный фактор вреда, подавляющее число участников последовали своей интуиции, чтобы дать роботу доступ .

Наконец, Ховард и др. все указывает на пример растущей распространенности беспилотных автомобилей и растущей готовности людей чрезмерно доверять таким функциям, как автопилот. В статье делается вывод, что люди могут предполагать, что робот обладает знаниями, которыми он не обладает, рассматривая действия робота, иногда ошибочно, как прямое отражение намерений разработчика, когда на самом деле робот может работать со сбоями или пользователи могут неверно истолковывать его способности. Даже при наличии доказательств плохого поведения или сбоя системы. [9]

На что указывают эти примеры чрезмерного доверия, так это на впечатлительность человеческого суждения, основанного на интуиции. Часто это интуитивное суждение перевешивает когнитивный разум даже в ситуациях, когда очевидно, что рациональный вариант безопаснее. Хотя необходимо провести более глубокое исследование, чтобы сопоставить эти примеры чрезмерного доверия с моделью Грина, я утверждаю, что эти тематические исследования охватывают как деонтологические, так и утилитарные точки принятия решений. Тогда возникает вопрос, существует ли качественная разница между рассмотренными выше суждениями и моральными суждениями/моральными рассуждениями. Изменяет ли тот факт, что суждение или разум являются моральными, их сущность и, следовательно, то, как человек взаимодействует с ними?

Пакстон и Грин определяют моральное рассуждение как сознательную умственную деятельность, посредством которой человек оценивает моральное суждение на предмет его (не)согласованности с другими моральными обязательствами, когда эти обязательства связаны с одним или несколькими моральными принципами и (в некоторых случаях) конкретными моральными суждениями. «[10] Если суждение и моральное суждение являются психологически и неврологически синонимами, тогда существует четкий логический путь для утверждений о чрезмерном доверии к ИИ, когда дело доходит до обобщенного принятия решений, которые можно распространить на чрезмерное доверие к моральному суждению и моральному мышлению. И если это правда, то исследования, анализирующие человеческую интуицию, когда дело доходит до чрезмерного доверия, могут предоставить дополнительные доказательства, которые помогут пролить свет на диалог между SIM и моделью двойного процесса Грина. Наконец, это исследование может поставить под сомнение уверенность Пакстона и Грина в их утверждении, что именно сознательная умственная деятельность определяет моральные рассуждения и влияние моральных решений.

[1] Джозеф Пакстон и Джошуа Грин, Моральные рассуждения: намеки и утверждения, Topics in Cognitive Science 2 (2010), 511–527, 525.

[2] Там же, 513.

[3] Алан Р. Вагнер, Джейсон Боренштейн и Аянна Ховард, Излишнее доверие к вычислительной этике в эпоху роботов: современный этический вызов, Communications of the ACM Vol. 61 №9 (сентябрь 2018 г.) 22.

[4] Там же.

[5] Там же, 24.

[6] Там же.

[7] Там же.

[8] Там же.

[9] Там же.

[10] Пакстон и Грин, Моральное рассуждение, 512.