Искусственный интеллект (ИИ) стремительно развивался за последние несколько лет. У нас есть компьютеры, телефоны и другое оборудование, которое теперь может отображать способности и интеллект, на фоне которых люди выглядят примитивными. В этой быстро развивающейся области технологий многие постулируют, что ИИ может стать сознательным, и последствия этого заключаются в том, что он подрывает религиозные нарративы. Если ИИ может быть сознательным, то есть физикалистское объяснение того, что делает нас людьми.1 Понятие души в исламе, называемое по-арабски рух, — это то, о чем мы мало что знаем. Однако можно утверждать, что это «невидимое», происходящее из трансцендентной реальности. С этой точки зрения, если душа, которая является нематериальной вещью, оживляющей тело, теперь может быть заменена физическим, материалистическим объяснением, то религия подорвана.

Физикалист может возразить, что сознание и способность испытывать субъективные сознательные состояния (также называемые феноменальными состояниями) могут быть объяснены искусственным интеллектом сознание становится аналогом компьютерной программы. Однако между слабымИИ и сильнымИИ есть разница. Слабый ИИ — это способность компьютерной системы отображать интеллект. Это может включать ответы на сложные математические уравнения или победу над несколькими противниками в игре в шахматы менее чем за час. Сильный ИИ относится к компьютерным системам, которые действительно обладают сознанием. Другими словами, способность испытывать субъективные состояния сознанияв том числе придавать смысл вещам. Слабый ИИ возможен и уже разработан. Сильный ИИ невозможен. Ниже приведены причины.

Первая причина, которая носит более общий характер, заключается в том, что компьютеры не являются независимыми системами, способными рассуждать. Вещь, охарактеризованная как сознательная, предполагает, что она является независимым источником рационального мышления. Однако компьютеры (и компьютерные программы) были спроектированы, разработаны и изготовлены независимыми рациональными людьми. Таким образом, компьютеры — всего лишь продолжение нашей способности быть разумными. Уильям Хаскер объясняет:

«Компьютеры функционируют так, как они работают, потому что они были созданы человеком, наделенным рациональным пониманием. Другими словами, компьютер — это просто продолжение рациональности его создателей и пользователей; это не более независимый источник рациональной мысли, чем телевизор — независимый источник новостей и развлечений».

Вторая причина заключается в том, что люди не только разумны их рассуждения интенциональны. Это означает, что наши рассуждения о или относительно чего-то и что они связаны со значением.4 И наоборот, компьютерные программы не характеризуются как имеющие значение. Компьютерные системы просто манипулируют символами. Для системы символы не оили очем-товсе компьютеры могут «видеть» символы, которыми они манипулируют, независимо от того, что мы можем думать, что символы относятся к чему-то или к чему-то. Компьютерные программы просто основаны на синтаксических правилах (манипулировании символами), а не на семантике (значении).

Чтобы понять разницу между семантикой и синтаксисом, рассмотрите следующие предложения:

  • Я люблю свою семью.
  • αγαπώ την οικογένειά μου.
  • আমি আমার পরিবারকে ভালবাসি.

Эти три предложения означают одно и то же: я люблю свою семью. Имеется в виду семантика, смысл предложений. Но синтаксис другой. Другими словами, используемые символы не похожи друг на друга. В первом предложении используются английские «символы», во втором — греческие, а в последнем — бангла. Исходя из этого, можно развить следующий аргумент:

  1. Компьютерные программы синтаксические (основаны на синтаксисе);
  2. У разума есть семантика;
  3. Синтаксис сам по себе не является ни достаточным, ни конститутивным для семантики;
  4. Следовательно, компьютерные программы сами по себе не являются разумом5.

Представьте, что лавина каким-то образом складывает горные камни в слова «Я люблю свою семью». Было бы несостоятельно утверждать, что гора знает, что означает расположение камней (символов). Это указывает на то, что простое манипулирование символами (синтаксисом) не порождает значения (семантики).

Компьютерные программы основаны на манипулировании символами, а не значениями. Точно так же я не могу узнать значение предложения на бенгали, просто манипулируя буквами (символами). Сколько бы раз я ни манипулировал буквами бангла, я не смогу понять значение слов. Вот почему для семантики нам нужно нечто большее, чем правильный синтаксис. Компьютерные программы работают с синтаксисом, а не семантикой. Компьютеры ничего не понимают.

Мысленный эксперимент Джона Серла «Китайская комната» — мощный способ показать, что простое манипулирование символами не приводит к пониманию того, что они означают:

«Представьте, что вы заперты в комнате, а в этой комнате несколько корзин с китайскими символами. Представьте, что вы (как и я) не понимаете ни слова по-китайски, но вам дали книгу правил на английском для манипулирования китайскими символами. Правила определяют манипулирование символами чисто формально, с точки зрения их синтаксиса, а не их семантики. Таким образом, правило может гласить: «Возьмите закорючку из корзины номер один и положите ее рядом со знаком закорючка из корзины номер два». дальнейшие правила возврата китайских символов из комнаты. Предположим, что неизвестные вам символы, передаваемые в комнату, называются «вопросами» людьми, находящимися за пределами комнаты, а символы, которые вы передаете обратно из комнаты, называются «ответами на вопросы». в разработке программ и что вы так хорошо манипулируете символами, что очень скоро ваши ответы неотличимы от ответов носителя китайского языка. Вот вы, запертые в своей комнате, перетасовываете свои китайские символы и раздаете китайские символы в ответ на входящие китайские символы… Теперь суть истории проста: благодаря реализации формальной компьютерной программы с точки зрения стороннего наблюдателя. , вы ведете себя точно так же, как если бы вы понимали по-китайски, но все-таки не понимаете ни слова по-китайски»6.

В мысленном эксперименте «Китайская комната» человек, находящийся в комнате, имитирует компьютер. Другой человек управляет символами таким образом, что создается впечатление, что человек в комнате понимает китайский язык. Однако человек в комнате не понимает языка; они просто имитируют это состояние. Серл заключает:

«Иметь символы сами по себе — просто иметь синтаксис — недостаточно для того, чтобы иметь семантику. Простого манипулирования символами недостаточно, чтобы гарантировать знание того, что они означают»7.

Возражающий может ответить на это, утверждая, что, хотя компьютерная программа не знает значения, вся система знает. Серл назвал это возражение «ответом системы»8. Однако почему же программа не знает смысла? Ответ прост: это потому, что он не может придать значения символам. Поскольку компьютерная программа не может придавать значения символам, как может компьютерная система, которая полагается на программу, понимать значение? Вы не можете добиться понимания, просто имея правильную программу. Серл представляет расширенную версию мысленного эксперимента «Китайская комната», чтобы показать, что система в целом не понимает смысла: «Представьте, что я запоминаю содержимое корзин и свод правил, а все расчеты делаю в голове. . Вы даже можете себе представить, что я работаю на открытом воздухе. В «системе» нет ничего, чего бы не было во мне, а поскольку я не понимаю по-китайски, то и система тоже».

Лоуренс Карлтон постулирует, что аргумент Серла о китайской комнате несостоятелен. Он утверждает, что аргумент Серла совершает ошибку, именуемую отрицанием антецедента. Карлтон утверждает, что Серл совершает ошибку, потому что «нам не предоставлено никаких доказательств того, что существует только один способ создания интенциональности». нет. Карлтон представляет это заблуждение следующим образом:

«Говорить: «Некоторые эквиваленты мозговых процессов производят интенциональность» и «Х не имеет этих эквивалентов», следовательно, «Х не имеет интенциональности» — значит совершить формальную ошибку «Отрицание предшествующего»11.

Однако Дейл Жакетт утверждает, что Сирл не совершает формальную ошибку, если интерпретация аргумента Серла такова:

«Если X (внутренне) преднамерен, то X имеет определенные эквиваленты мозговых процессов».

Жакетт считает, что аргумент Серла — это уступка функционализму. Он утверждает, что функционалисты «утверждают, что в протоплазме нет ничего особенного, так что любая должным образом организованная материя, реализующая правильную программу ввода-вывода, дублирует интенциональность разума». . Однако он заявляет, что «я вижу очень веские аргументы в пользу того, что мы не можем дать такую ​​вещь машине, где работа машины определяется исключительно в терминах вычислительных процессов над формально определенными элементами…»14.

Если компьютеры не могут придавать значение символам, то о какой сознательной машине говорит Сирл? Даже если кто-то постулирует существование робота (что Серл отвергает), это все равно создает непреодолимые проблемы. Машины основаны на «вычислительных процессах над формально определенными элементами». Кажется, что сама возможность того, что машина будет понимать (придавать значение символам), потребует чего-то другого, кроме этих вышеупомянутых процессов и элементов. Существует ли такая машина? Ответ - нет. Могут ли они существовать? Если бы они могли, их, вероятно, не описывали бы как машины, если бы требовалось нечто иное, чем «вычислительные процессы над формально определенными элементами».

Согласно Рокко Дженнаро, многие философы согласны с точкой зрения Серла о том, что роботы не могут обладать феноменальным сознанием.15 Некоторые философы утверждают, что для создания сознательного робота «должен присутствовать качественный опыт»[16], в чем они пессимистичны. Другие объясняют этот пессимизм:

«Объяснить сознание — значит объяснить, как этот субъективный внутренний вид информации может возникнуть в мозгу, и, таким образом, создать сознающего робота означало бы создать субъективный внутренний вид информации внутри робота… каким бы продвинутым он ни был, скорее всего, это не сделает сознание робота, поскольку феноменальные внутренние явления также должны присутствовать».

ИИ не может придавать значения символам, он просто очень сложным образом манипулирует ими. Поэтому никогда не будет сильной версии ИИ. Религия не подрывается.

Автор: Хамза Андреас Цорцис

Оригинал статьи по адресу: https://sapienceinstitute.org/does-artificial-intelligence-undermine-religion/

Рекомендации

1 Физикализм — это точка зрения, согласно которой сознание может быть сведено к физическим процессам, объяснено ими или идентично им каким-то образом.

2 В философии разума физикализм или материализм являются синонимами терминов, даже несмотря на то, что они имеют разную историю и значение при использовании в других областях знания.

3 Хаскер, Хаскер. Метафизика (Downer’s Grove, IL: InterVarsity, 1983), 49; см. также «Трансцендентальное опровержение детерминизма», Southern Journal of Philosophy 11 (1973) 175–83.

4 Серл, Джон, Интенциональность: очерк философии разума. (Кембридж: издательство Кембриджского университета, 1983), с. 160.

5 Сирл, Джон. (1989). Ответ для Жакет. Философия и феноменологические исследования, 49(4), 703.

6 Сирл, Джон. (1984) Разум, мозг и наука. Кембридж, Массачусетс: Издательство Гарвардского университета, стр. 32–33.

7 Сирл, Джон. (1990) Является ли разум мозга компьютерной программой? Scientific American 262: 27.

8 Там же, 30.

9 Там же.

10 Карлтон, Лоуренс (1984). Программы, понимание языка и Сирл. Синтез, 59, 221.

11 Там же.

12 Жакет, Дейл. «Тезис Серла об интенциональности». Синтез 80, вып. 2 (1989): 267.

13 Там же, 268.

14 Сирл, Джон. (1980b) Разум, мозг и программы. Науки о поведении и мозге 3, 422.

15 Дженнаро, Рокко. Сознание. (Лондон: Routledge, 2017), с. 176.

16 Там же.

17 Там же.