Что такое искусственный интеллект? «Искусственный» — это относительно четко определенный термин, но понятие интеллекта часто неоднозначно. Во многих статьях представлен довольно позитивный взгляд на развитие ИИ в последние годы и на то, насколько интеллектуальными являются эти системы (например, GPT-3). Однако что определяет, действительно ли искусственный агент разумен или нет? Большинство не зашло бы так далеко, чтобы назвать современные модели глубокого обучения интеллектуальными, но почему бы и нет? Современные языковые модели способны создавать текст, временами неотличимый от человеческой прозы. Возможно, модель, способная генерировать только текст, недостаточна для соответствия нашим критериям разумного агента, но что, если бы этот агент мог эмулировать другие элементы человеческого поведения? Отвечало бы оно тогда требованиям интеллекта? т. е. если он выглядит как утка, плавает как утка и крякает как утка, то, вероятно, это утка. Или в человеческом интеллекте есть что-то фундаментальное, что просто невозможно смоделировать с помощью каких-либо вычислений? Эти сложные вопросы, от теста Тьюринга до гипотезы масштабирования, десятилетиями обсуждались в сообществе ИИ.

В этой статье я представлю несколько фундаментальных концепций философии ИИ, а именно тест Тьюринга и аргумент китайской комнаты, которые призваны дать представление об этих вопросах. Оба этих мысленных эксперимента дают нам возможность задуматься об интеллекте искусственных агентов. Как следствие, они естественным образом построены на нескольких фундаментальных предположениях о том, как интеллект и сознание возникают из человеческого разума/мозга. Центральное место в тесте Тьюринга, например, занимает идея о том, что вычислительная модель, поведение которой неотличимо от поведения человека, соответствует критериям разумной машины; то есть он разумен так же, как человек разумен. Джон Серл использует аргумент китайской комнаты для критики этой линии рассуждений и при этом делает свои собственные утверждения о природе интеллекта. Имея это в виду, цель этой статьи двояка:

  1. Познакомить вас, читатель, с несколькими фундаментальными концепциями ИИ, которые жизненно важны для понимания области.
  2. Поощрять размышления не только об интеллекте искусственных агентов, но и о вашем собственном интеллекте и сознании. Какие предположения вы делаете об отношениях между вашим собственным телом и разумом?

Тест Тьюринга

Представьте, что вы сейчас ведете два разговора в онлайн-системе обмена сообщениями. Ранее вы были уведомлены о том, что один из ваших собеседников — компьютер, а другой — человек. Ваша задача состоит в том, чтобы с помощью текстовой беседы (т. е. передачи письменных сообщений) определить, какой собеседник является компьютером, а какой человеком. Если вы сможете последовательно и успешно выполнять эту задачу, то это означает, что компьютер не проходит тест Тьюринга. Напротив, компьютер проходит тест Тьюринга, если он может постоянно обманывать вас, заставляя вас думать, что он человек.

Хотя первоначальный тест, описанный Аланом Тьюрингом в 1950 году, выглядит иначе, чем эта стандартная интерпретация, принцип тот же. Компьютер, способный общаться с человеком способом, неотличимым от общения человека с человеком, проходит тест Тьюринга. Каковы последствия этого? Фундаментальное философское допущение, лежащее в основе теста Тьюринга, звучит просто: Если компьютер может вести себя как человек, то он может и думать как человек. Следовательно, если компьютер может пройти тест Тьюринга, то это указывает на существование разумной машины.

Критика:

В эпоху Интернета потенциальные ошибки в тесте Тьюринга найти легче, чем в 20 веке. Умело написанные правила и человеческая иррациональность убедили многих людей в том, что чат-боты, с которыми они общаются в сети, — настоящие люди. Даже с чат-ботами, которые не способны к обучению и явно не являются теми, кого мы бы назвали «умными», на удивление легко обмануть людей, заставив их поверить в то, что их собеседник реален. Даже в 1966 году программа ELIZA [1] смогла обмануть многих людей, заставив их поверить в то, что это человек. Естественно, легко критиковать чат-ботов и подобные программы. Будет справедливо сказать, что при достаточно тщательной оценке большинство людей смогут сказать, что программа, с которой они разговаривают, не является человеком.

С другой стороны, более резкой критикой теста Тьюринга является аргумент китайской комнаты.

Аргумент о китайской комнате

До сих пор мы исходили из предположения, что компьютер, который может вести себя как человек, соответствует требованиям разумной машины. Джон Серл опровергает эту точку зрения и утверждает, что компьютер не может быть разумным или, по крайней мере, не может быть доказано, что он разумен. В 1980 году он представил аргумент китайской комнаты, чтобы проиллюстрировать свою точку зрения.

Описание китайской комнаты.

Представьте, что вы находитесь в комнате, где есть набор инструкций для ведения разговора на китайском языке, а также множество материалов, которые помогут вам следовать инструкциям (например, бумага, ручки и т. д.). Через щель в двери вы можете получить записку с китайским текстом. Ваша задача — использовать предоставленные инструкции, чтобы ответить на чистом китайском языке. Пока инструкции достаточно высокого качества, записка, которую вы возвращаете человеку у двери, содержит текст, эквивалентный тому, что он мог бы ожидать от носителя китайского языка. Для них они могут предположить, что общались с кем-то, кто говорит по-китайски.

Однако ясно видно, что, хотя вы создаете идеальный китайский текст, вы на самом деле не понимаете, что вы пишете. Предполагая, что вы не являетесь носителем китайского языка, вы не понимаете происходящего разговора. Теперь представьте себе компьютер, который может выполнять эту задачу. Носитель китайского языка может ввести любое предложение и получить логичный связный ответ на китайском языке. Если бы этот компьютер использовался в тесте Тьюринга, он, несомненно, прошел бы. Однако можно ли сказать, что этот компьютер разумен? Что он понимает китайский язык просто потому, что может прекрасно его воспроизвести по запросу?

Для Джона Серла этот мысленный эксперимент показывает, что компьютер не может быть сознательным и иметь истинное понимание того, что производит программа, которую он запускает.

Сильный и слабый ИИ

Две позиции, изложенные тестом Тьюринга и аргументом китайской комнаты, часто обозначаются как философские позиции сильного и слабого ИИ. Современные концепции сильного и слабого ИИ относятся к обобщаемой компетенции искусственного интеллекта, где сильный ИИ может обобщать и хорошо выполнять множество различных задач, а слабый ИИ эффективен только для конкретных задач. Однако исходные философские определения, данные Серлом, немного отличаются:

  • Сильный ИИ. Учитывая предыдущий мысленный эксперимент, машина, которая действительно понимает китайский язык, является сильным ИИ. В сильном ИИ моделью разума является действительно разум.
  • Слабый ИИ: модель разума — это просто симуляция разума, сама машина не имеет сознания или понимания собственного поведения.

Сирл считает, что сильный ИИ не может существовать и что в механизмах человеческого мозга есть что-то фундаментальное, что нельзя смоделировать с помощью простых вычислений. Стоит отметить, что это не означает, что в человеческом интеллекте есть какой-то метафизический элемент, который нельзя смоделировать каким-либо образом, просто невозможно смоделировать это с помощью любой формы вычислительной модели.

Критика

Кажется разумным предположить, что ИИ может пройти тест Тьюринга, не обязательно понимая, что он делает, то есть можно создать достаточно мощную симуляцию разума. Однако позиция о том, что невозможно создать ИИ, который сам по себе может быть сознательным, является более спорной позицией. Мы отсылаем к [2] для более глубокого обсуждения этих концепций. Глубоко в основе аргументации Серла лежит предположение о том, что в работе человеческого мозга есть нечто уникальное, что нельзя воспроизвести с помощью какой-либо вычислительной модели. Не обязательно иметь какие-либо убедительные доказательства того, что это так, и эта позиция противоречит философии разума, такой как компьютеризм, который утверждает, что разум сам по себе является системой обработки информации. Дальнейшее обсуждение вычислительной техники см. в [3].

В интересах сохранения поста разумной длины я не буду обсуждать реакцию Серла на эту критику, но рекомендую прочитать его статью 1990 года «Является ли разум мозга компьютерной программой?»» [7], для более глубокого понимания его положения.

Заключение

Тест Тьюринга — это способ проверить, является ли машина разумной, основанный на предположении, что если поведение машины неотличимо от человеческого, то ее можно считать разумной. Джон Сирл оспаривает этот тест в аргументе Китайской комнаты, подчеркивая, что машина, демонстрирующая разумное поведение, не обязательно указывает на существование разумной машины, поскольку достаточно полный набор инструкций может позволить любому воспроизвести разумное поведение. Чтобы отойти от этого аргумента, нам нужно переоценить наше понимание интеллекта, сознания и разума. Если вы специалист по вычислениям, вы можете придерживаться теста Тьюринга как хорошего теста для искусственного интеллекта. Если вы верите в фундаментальное разделение между телом и разумом, то можете заявить, что сильный искусственный интеллект просто невозможен, поскольку разум нельзя создать из физического мира.

Мы начали эту запись в блоге с вопроса «Что такое искусственный интеллект?», который был несколько уточнен в «Что определяет, является ли искусственный агент действительно разумным или нет?». . К сожалению, мы не продвинулись так далеко в ответах на эти вопросы. Центральная двусмысленность того, что мы подразумеваем под интеллектом, сознанием и подобными понятиями, не поддается научным, логическим выводам. Невозможно доказать, действительно ли искусственный интеллект разумен, если мы не сделаем очень сильных и спорных предположений об этих концепциях.

Путь вперед, возможно, заключается в разработке более четких, научно обоснованных теорий сознания и интеллекта. Если вас это интересует, хорошим началом будет чтение книги Дэниела Деннета «Объяснение сознания» [6]. Однако, как это часто бывает в отношениях между наукой и философией, чем ближе мы подходим к наблюдаемым явлениям, тем дальше мы удаляемся от лежащей в их основе концепции, которую мы пытаемся объяснить и понять. Возможно, через несколько сотен лет появится сверхразумный ИИ, который решит за нас некоторые из этих проблем. А пока вы можете делать собственные выводы об ИИ, сознании и природе интеллекта. И дайте нам знать, что вы придумали, мы очень хотим услышать ваше мнение :)

Автор

Натан Бош является руководителем отдела образования KTH AI Society, студентом магистратуры по машинному обучению в KTH Royal Institute of Technology и стажером отдела исследований и разработок в Ericsson. Вы можете связаться с ним в LinkedIn или по электронной почте [email protected].

Рекомендации

[1] Вейценбаум, Дж. (1966). ELIZA — компьютерная программа для изучения естественного языкового общения человека и машины. Сообщения ACM, 9(1), 36–45.

[2] https://plato.stanford.edu/entries/chinese-room/

[3] https://plato.stanford.edu/entries/computational-mind

[4] А. М. Тьюринг, И. - ВЫЧИСЛИТЕЛЬНАЯ МАШИНА И ИНТЕЛЛЕКТ, Разум, том LIX, выпуск 236, октябрь 1950 г., страницы 433–460, https://doi.org/10.1093/mind/ LIX.236.433

[5] Сирл, Дж. Р. (1980). Разум, мозг и программы. Науки о поведении и мозге, 3(3), 417–424.

[6] Деннет, округ Колумбия (1993). Объяснение сознания. Пингвин Великобритания.

[7] Серл, Дж. Р. (1990). Является ли разум мозга компьютерной программой? Scientific American, 262(1), 25–31.