Этика ИИ: сначала не навреди

Лаура [fic] — занятая мама двоих детей. Ее безумный график вышел из-под контроля из-за работы из дома из-за COVID-19. Каждый день кажется упражнением в первобытном выживании. Чтобы свести к минимуму умственное напряжение, она по умолчанию переходит в режим автопилота всякий раз, когда ставки низки и не требуют ее безраздельного внимания. Наличие дворецкого старой школы было бы спасительной благодатью. Это не финансовый вариант, поэтому Лаура пытается использовать любых виртуальных помощников, которых она может себе позволить. Amazon доставляет ей завтрак, Netflix развлекает ее детей во время встреч с руководителями высшего звена, а Doordash доставляет теплые обеденные тарелки, которые объединяют семью. С этими виртуальными помощниками она может, по крайней мере, отключить свои мышцы принятия решений для банальных вещей и сосредоточиться на общей картине. Виртуальные помощники не всегда делают лучший выбор, но у кого есть время вести счет. Лора иногда получает немолочное молоко вместо обычного 2%. И иногда она застает детей на полпути к фильму ужасов, хотя такой контент запрещен. Время от времени шеф-повар Doordash забывает, что заказ Лауры не содержит глютена, что приводит к слишком знакомому экстренному замороженному ужину. ИИ-рекомендатель имеет в виду хорошо.

Поколение рекомендателей

Наша жизнь течет на автопилоте, и для многих из нас это столь необходимая передышка. Тем не менее, остается много вопросов без ответа о влиянии и долгосрочных последствиях рекомендаций, сделанных алгоритмами. Поколение «рекомендаторов», вероятно, страдает синдромом кипящей лягушки. Кипящая лягушка - это басня, в которой описывается лягушка, которую медленно варят заживо. Предпосылка состоит в том, что если вы бросите лягушку в кипящую воду, лягушка выпрыгнет. Однако если положить лягушку в чуть теплую воду и медленно довести ее до кипения, лягушка не почувствует опасности и погибнет. Басня является метафорой нашей неспособности реагировать на опасные угрозы, возникающие постепенно, а не внезапно.

Бен проводит семинары по пробуждению для людей, стремящихся оптимизировать свой человеческий потенциал. За эти годы Бен обучил более 500 человек со всего мира. Недавно он признался, что обеспокоен готовностью людей откладывать решение проблем на высшие инстанции. Люди кажутся слишком удобными, принимая решения своих жизненных проблем, если эти решения предлагает авторитетный человек. Тот факт, что этот человек знал о своих конкретных жизненных обстоятельствах всего несколько часов, а иногда и вовсе не знал (вспомните видеоролики на YouTube), является незначительной деталью. Почему мы слишком быстро уступаем автономию высшей власти, даже если она кажется заслуживающей доверия? И каковы последствия этого врожденного человеческого поведения в мире, где помощники ИИ становятся преобладающими в нашей социальной и личной жизни?

"Мы не можем решать проблемы, используя тот же тип мышления, который мы использовали, когда создавали их". ~ Альберт Эйнштейн

Ученые искусственного интеллекта отражают человеческие недостатки во вселенной искусственного интеллекта — в конце концов, роботы отражают своего создателя. Из исследований в области поведенческой экономики мы знаем, что у людей есть врожденные предубеждения. Даниэль Канеман, лауреат Нобелевской премии по поведенческой экономике, выявил несколько (из многих) недостатков в процессе принятия решений человеком. Якорение, например, — это когнитивное искажение, при котором человек слишком сильно зависит от исходной информации — якоря — для последующих суждений во время принятия решений. Как только вы установите ценность этого якоря, он станет критерием для всех будущих аргументов. Мы усваиваем информацию, которая совпадает с якорем, и отбрасываем информацию, которая менее связана. Еще одним человеческим предубеждением является предубеждение доступности. Это умственный ярлык, основанный на непосредственных примерах, которые приходят в голову человеку при оценке конкретного решения. Если вы что-то вспоминаете, это должно быть важно или, по крайней мере, важнее альтернативных решений, которые не сразу приходят в голову. Люди больше взвешивают свои суждения в отношении недавней информации, формируя новое мнение, основанное на последних новостях.

В поисках вдохновения для Кодекса этики

Врачи несут моральную ответственность за улучшение здоровья всех людей. С древних времен врачи должны были соблюдать правила и руководящие принципы. Стандартной этической клятвой в медицине является Клятва Гиппократа. Он требует, чтобы новый врач поклялся соблюдать этические стандарты, которые включают врачебную конфиденциальность и непричинение вреда. Медицинские клятвы развивались на протяжении десятилетий, а самая значительная редакция — Женевская декларация — появилась после Второй мировой войны. Принесение пересмотренной формы медицинской присяги остается обрядом посвящения выпускников медицинских вузов во многих странах.

Должны ли ученые, занимающиеся искусственным интеллектом, определить руководящие принципы, касающиеся этики, ценностей и соответствия их работе? Такая клятва заставила бы ученых осознать свою социальную и моральную ответственность. Идея этического кодекса практики для профессий вне медицины вовсе не нова. Подобно клятве Гиппократа в медицине, Клятва Архимеда представляет собой этический кодекс практики для инженеров. Группа студентов Федеральной политехнической школы Лозанны (EPFL) предложила эту присягу в 1990 году. Со временем Клятва Архимеда получила мягкое признание в нескольких европейских инженерных школах. У ученых есть собственная клятва — Клятва Гиппократа для ученых, предложенная сэром Джозефом Ротблатом в его речи при вручении Нобелевской премии мира в 1995 году.

Руководство по этичному ИИ

Как медицина влияет на благополучие людей, так и системы ИИ будут выборочно влиять на наш жизненный опыт. Внедрение ИИ в реальном мире происходит так незаметно, что мы едва замечаем это. Мы страдаем синдромом кипящей лягушки? Жюри еще нет. Как и любой инструмент, ИИ можно использовать как во благо, так и во вред. Например, быстрый поиск в Google по запросу ИИ для найма выдает положительные заголовки, такие как Использование ИИ для устранения предвзятости при приеме на работу», но также и негативные заголовки, такие как «Наем с помощью ИИ предвзят. Вот как сделать его более справедливым.

Сцена открыта для предложений по кодексу этики ИИ. Эффективная программа должна объединять различные заинтересованные стороны из отрасли, научных кругов и правительства. Такой междисциплинарный комитет позволит нам спроектировать будущее, достойное жизни.