Давайте начнем с глав 9 и 10 моего исследования и интерпретации немецкой книги об искусственном интеллекте, которую я недавно прочитал под названием «Искусственный интеллект и смысл жизни» Ричарда Дэвида Прехта.

Если вы здесь впервые, настоятельно рекомендую начать с первой главы здесь. Вам понадобится всего 5 минут, чтобы наверстать упущенное.

Глава 9: Машины и мораль

Как узнать, когда и где остановиться?

Этот вопрос обычно задают только для того, чтобы его хотя бы упомянули. Ответ всегда расплывчатый и постоянно меняющийся. Особенно для политиков любые реальные ответы были бы пугающими и большой проблемой для «прогресса».

Почти все согласны с тем, что мы должны создать некоторые этические принципы, чтобы согласовать ОИИ (сверхразум) с тем, что мы считаем хорошим и правильным.

  • Мы хотим запрограммировать этику во что угодно, от автомобилей до оружейных систем, чтобы она всегда могла вычислить, что плохо, а что хорошо. Это идея... Но давайте подробнее рассмотрим различия между человеческим и машинным решением этических проблем.

Мы хотим, чтобы роботы были очень нравственными, но также и очень точными, когда мы просим их сделать все, что мы хотим. Даже в такой аморальной ситуации, как убийство людей с помощью оружия с искусственным интеллектом. Это в принципе невозможно.

  • Исследования показывают, что для людей наши чувства существуют раньше, чем наше понимание. На эту идею натолкнула книга Джонатана Хайдта «Эмоциональная собака и ее разумный хвост».

У нас нет фактических причин для наших моральных решений, но поскольку у нас есть определенные мнения, мы ищем подходящие аргументы.

Например, люди, которые против абортов, как правило, не против них из-за разумных доводов. Вместо этого они ищут аргументы, потому что они против абортов. Рациональные аргументы в пользу чего бы то ни было обычно второстепенны по сравнению с нашим первоначальным мнением.

Мы как бы просто решаем, что хорошо, а что плохо, своим внутренним чутьем. Хорошая часть заключается в том, что мы можем адаптировать этот моральный компас с течением времени и под внешним давлением и мнениями. Без социальных чувств, таких как любовь, уважение, отвращение или смущение, наш разум не знал бы, как действовать.

  • Теперь, если мы подумаем о том, как реализовать все это в машинах, это кажется довольно странным. Вы пытаетесь стандартизировать то, что не является стандартом или не поддается стандартизации. Особенно это касается религий и культур.

Мораль — это самый простой способ увидеть, насколько мы на самом деле «противоположны» искусственному интеллекту.

Когнитивный диссонанс говорит о том, что, сталкиваясь с дилеммой, мы больше всего заботимся о своей самоидентификации. Это потому, что любое решение является представлением нас самих и нашей морали для нас самих и всех вокруг нас. У машин нет этого ключевого аспекта человеческой морали.

Теперь, когда мы видим, что мораль вряд ли является стандартной и, следовательно, не может быть универсально запрограммирована, мы видим проблему, которая стоит сегодня перед специалистами по этике в комиссиях и залах заседаний. Если вы скажете, что это невозможно, вам просто не дадут сесть за этот стол.

  • Что-то может быть запрограммировано только в том случае, если оно понятно и в некоторой степени стандартизировано. Поскольку этика и мораль не являются ни тем, ни другим, мы не должны пытаться это сделать.

В противном случае мы рискуем испортить собственную моральную интуицию, чрезмерно анализируя ее и пытаясь подогнать круг под квадрат.

Глава 10: Холодное сердце

Мы видели, что человеческая мораль нерациональна, так как же это связано с ИИ?

  • Чем больше чужое представление о морали запрограммировано в системе, которая нами управляет, тем меньше личной свободы у нас будет. Разве личная свобода не была целью ИИ?

Если невозможно сделать мораль ИИ похожей на человеческую, мы должны задать ему какие-то параметры и каким-то образом запрограммировать. Но что мы вводим в качестве цели?

Счастье, веселье или удовлетворенность означают совершенно разные вещи для каждого человека. Кроме того, разве наша конечная цель не меняется и не развивается по мере нашего взросления? Невозможно даже обобщить, что приятно, а что болезненно. У садиста, мазохиста, ребенка и профессионального спортсмена разные взгляды на это.

Если мы будем искать ответы на вопросы морали программирования с помощью чисел, это тоже не сработает.

  • Если у кого-то есть боль, но причина не может быть найдена, боль остается. Точно так же, если на улице холодно, но большинство говорит, что тепло, для человека, который это чувствует, все равно холодно. То, что что-то верно для большинства, не означает, что это можно применять индивидуально. Это остается верным для морали.

Спасибо за вашу поддержку этой мини-серии и за чтение следующих глав. Было ли что-то, с чем вы были согласны или не согласны?

Чтобы сразу перейти к следующей главе, нажмите ниже:



Чтобы вернуться к первой главе, вместо этого нажмите здесь.