Мы приближаемся к этическому кризису?

Учитывая растущую озабоченность по поводу отсутствия этического рассмотрения в области искусственного интеллекта (ИИ), многие начали задаваться вопросом, как доминирующие подходы к дисциплинарному образованию в области компьютерных наук (КИ) — и их последствия для ИИ — привели к нынешнему «кризис этики».

Тем не менее, мы утверждаем, что нынешнее пространство образования в области этики ИИ опирается на форму «педагогики исключения», где этика сводится к вычислительным подходам, но нет более глубокого эпистемологического взаимодействия с другими способами познания, которые могли бы принести пользу этическому мышлению или признанию ограничения однозначного вычислительного мышления. Это приводит к безразличию, обесцениванию и отсутствию взаимной поддержки между CS и гуманистическими социальными науками (HSS), возвышая миф о технологах как «этических единорогах», которые могут все, хотя их дисциплинарные инструменты в конечном итоге ограничены. Таким образом, он предлагает перейти к существенно совместной, целостной и этически генеративной педагогике в обучении ИИ.

Подразумевается, что скрипты кода ML редко тщательно изучаются; интерпретируемость обычно приносится в жертву удобству использования и эффективности. Но его революционное обещание повысить эффективность, снизить затраты и ускорить исследования и разработки в последнее время сдерживается опасениями, что эти сложные, непрозрачные системы могут принести обществу больше вреда, чем пользы для экономики. Практически без надзора со стороны правительства частные компании используют программное обеспечение ИИ для принятия решений о здоровье и медицине, трудоустройстве, кредитоспособности и даже уголовном правосудии, не отвечая за то, как они гарантируют, что программы не кодируются, сознательно или бессознательно, с помощью структурные уклоны.

С другой стороны, с увеличением технических возможностей ИИ появляется все больше попыток использовать ИИ специально для этических целей. В настоящее время это делается под заголовком ИИ во благо (Берендт 2019). Ключевая проблема, с которой сталкивается AI for Good, заключается в том, чтобы определить, что считается (этически) хорошим. В плюралистическом мире часто может не быть единого мнения о том, что хорошо или почему это следует считать хорошим. Однако были предприняты многочисленные попытки (например, Holmes et al. 2011) определить общие этические блага или ценности, такие как доброжелательность, безопасность, достижения и самоуправление.

Вывод:

Ключом к пониманию этики является понимание человеческого состояния. Мы развиваем и используем этику, потому что мы телесны, а значит, уязвимы и смертны, существа, которые могут чувствовать сочувствие к другим, у которых есть страхи и надежды, подобные нашим собственным. Это основа нашей социальной природы и, следовательно, нашей этики. Если мы используем эту отправную точку, то ИИ, чтобы быть морально ответственным и этичным агентом, должен обладать этими характеристиками. На данный момент ни одна система не сравнится с эмпатией. Это не имеет ничего общего с вычислительными способностями ИИ, которые намного превосходят наши и уже некоторое время превосходят наши, но возникает из-за того, что ИИ просто не относится к той же категории, что и мы.