Доктор Мичио Каку сформулировал очень интересную теорию сознания, которая применима к системам искусственного интеллекта.

Недавно я начал новый информационный бюллетень, посвященный образованию в области искусственного интеллекта. TheSequence - это информационный бюллетень, ориентированный на искусственный интеллект (то есть без рекламы, без новостей и т. Д.), На чтение которого уходит 5 минут. Цель состоит в том, чтобы держать вас в курсе проектов, исследовательских работ и концепций машинного обучения. Пожалуйста, попробуйте, подписавшись ниже:



Недавно у меня был спор о сильном и слабом ИИ с одним из моих любимых новых мыслителей на этом рынке, и это напомнило мне кое-что, что я написал более года назад. Поэтому я решил избавиться от этого и переформулировать эти мысли в новой статье.

При всей технологической шумихе вокруг искусственного интеллекта (ИИ) я считаю иногда полезным вернуться к его философским корням. Из всех философских дебатов, связанных с ИИ, нет ничего важнее, чем проблема слабого и сильного ИИ. С технологической точки зрения я разделяю идею о том, что мы находимся на расстоянии одного или двух прорывов от достижения какой-либо формы сильного или общего ИИ. Однако с философской точки зрения есть еще несколько проблем, которые необходимо решить. Многие из этих проблем можно объяснить неясной теорией, впервые предложенной австро-венгерским математиком в прошлом веке, и одной из ведущих областей исследований в области нейробиологии.

В теории ИИ слабый ИИ часто ассоциируется со способностью систем казаться интеллектуальными, в то время как сильный ИИ связан со способностью машин мыслить. Под мышлением я имею в виду действительное мышление, а не просто смоделированное мышление. Эту дилемму часто называют «гипотезой сильного ИИ».

В мире, который исследует мир с помощью цифровых помощников и алгоритмов, побеждая команды GO World Champions и Dota2, вопрос о том, могут ли машины действовать разумно, кажется глупым. В стесненных условиях (например, медицинские исследования, GO, путешествия) мы смогли создать множество систем искусственного интеллекта, которые могут действовать так, как если бы они были разумными6. Хотя большинство экспертов согласны с тем, что слабый ИИ определенно возможен, в отношении сильного ИИ все еще существует огромный скептицизм.

Могут ли машины думать?

Эти вопросы преследуют компьютерных ученых и философов с момента публикации знаменитой статьи Алана Тьюринга Вычислительные машины и интеллект в 1950 году. Этот вопрос также кажется немного несправедливым, когда большинство ученых не могут даже прийти к согласию по поводу формального определения мышления.

Чтобы проиллюстрировать путаницу вокруг сильной гипотезы искусственного интеллекта, мы можем использовать некоторый юмор от известного компьютерщика Эдсгер Дейкстра, который в статье 1984 года сравнил вопрос о том, могут ли машины думать, с такими вопросами, как могут ли подводные лодки плавать. ? или могут ли самолеты летать? . Хотя эти вопросы кажутся похожими, большинство англоговорящих согласятся, что самолеты на самом деле могут летать, а подводные лодки не умеют плавать. Это почему? Я оставлю этот спор вам и словарю;) Мета-точка этого сравнения состоит в том, что без универсального определения мышления кажется неуместным зацикливаться на том, могут ли машины думать 😉.

Среди основных контраргументов сильному ИИ говорится, что, по сути, невозможно определить, действительно ли машина мыслит. Этот аргумент основан на одной из самых известных математических теорем всех времен.

Теорема Гёделя о неполноте

Когда мы говорим о величайших математических теориях в истории, которые оказали большое влияние на наш образ мышления, нам нужно зарезервировать место для теоремы Гёделя о неполноте. В 1931 году математик Курт Гёдель продемонстрировал, что дедукция имеет свои пределы, доказав свою знаменитую теорему о неполноте. Теорема Гёделя утверждает, что в любой формальной теории, достаточно сильной для выполнения арифметических действий (например, AI), есть истинные утверждения, которые не имеют доказательства в рамках этой теории.

Теорема о неполноте уже давно используется в качестве возражения против сильного ИИ. Сторонники этой теории утверждают, что сильные агенты ИИ не смогут по-настоящему думать, потому что они ограничены теоремой о неполноте, в то время как человеческое мышление явно нет. Этот аргумент вызвал много споров и был отвергнут многими сильными практиками ИИ. Наиболее часто используемый аргумент сильной школы ИИ заключается в том, что невозможно определить, подчиняется ли человеческое мышление теореме Гёделя, потому что любое доказательство потребует формализации человеческого знания, которое, как мы знаем, невозможно.

Аргумент сознания

Мой любимый аргумент в сильных дебатах по поводу ИИ - это сознание. Могут ли машины действительно думать или просто моделировать мышление? Если машины могут думать в будущем, это означает, что они должны быть сознательными (то есть осознавать свое состояние и действия), поскольку сознание является краеугольным камнем человеческого мышления.

Скептицизм по поводу сильного ИИ вызвал споры, начиная от классической математической теории, такой как Теорема Гёделя о неполноте, до чисто технических ограничений платформ ИИ. Однако основная дискуссия остается на стыке биологии, нейробиологии и философии и связана с сознанием систем искусственного интеллекта.

Что такое сознание?

Существует множество определений и споров о сознании. Конечно, этого достаточно, чтобы отговорить большинство здравомыслящих людей от аргументов в пользу его роли в системах ИИ;) Большинство определений сознания включают самосознание или способность сущности осознавать свои ментальные состояния. Тем не менее, когда дело доходит до ИИ, самосознания и состояний металла, которые четко не определены, мы можем быстро начать спускаться в кроличью нору.

Чтобы быть применимой к ИИ, теория сознания должна быть более прагматичной и технической, а не, скажем так, философской. Мое любимое определение сознания, которое следует этим принципам, принадлежит физику-лауреату Мичио Каку, профессору теоретической физики Нью-Йоркского университета и одному из создателей теории струн. Несколько лет назад доктор Каку представил то, что он назвал пространственно-временной теорией сознания, чтобы объединить определения сознания из таких областей, как биология и нейробиология. В своей теории доктор Каку определяет сознание следующим образом:

«Сознание - это процесс создания модели мира с использованием множества петель обратной связи по различным параметрам (например, температуре, пространству, времени и по отношению к другим) для достижения цели (например, поиска друзей, еда, кров) »

Пространственно-временное определение сознания напрямую применимо к ИИ, потому что оно основано на способности мозга создавать модели мира, основанные не только на пространстве (как животные), но и во времени (назад и вперед). С этой точки зрения доктор Каку определяет человеческое сознание как «форму сознания, которая создает модель мира, а затем моделирует ее во времени, оценивая прошлое для моделирования будущего». Другими словами, человеческое сознание напрямую связано с нашей способностью планировать будущее.

В дополнение к своему основному определению пространственно-временная теория сознания включает несколько типов сознания:

· Уровень 0: включает организмы, такие как растения с ограниченной подвижностью, которые создают модель своего пространства, используя несколько параметров, таких как температура.

· Уровень 1. Организмы, такие как рептилии, подвижны и имеют нервную систему. Эти организмы используют гораздо больше дополнительных параметров, чтобы сформировать модель своего пространства.

· Уровень II: Организмы, такие как млекопитающие, создают модели мира не только на основе пространства, но и по отношению к другим.

· Уровень III: Люди, которые понимают связь со временем и обладают уникальной способностью представлять будущее.

Сознательны ли системы ИИ?

Сознание - одна из самых горячих тем для обсуждения в сообществе ИИ. Под сознанием ИИ мы имеем в виду способность агента ИИ осознавать свое «психическое состояние». В предыдущей части этого эссе была представлена ​​схема, впервые разработанная известным физиком доктором Мичио Каку для оценки сознания на четырех различных уровнях.

В теории доктора Каку уровень сознания 0 описывает такие организмы, как растения, которые оценивают свою реальность на основе нескольких параметров, таких как температура. Рептилии и насекомые проявляют сознание Уровня 1, поскольку они создают модели мира, используя новые параметры, включая пространство. Сознание уровня 2 включает создание моделей мира, основанных на эмоциях и отношениях с другими видами. Млекопитающие - основная группа, связанная с сознанием уровня 2. Наконец, у нас есть люди, которых можно отнести к уровню сознания 3 на основе моделей мира, которые включают симуляции будущего.

На основе концепции сознания доктора Каку мы можем оценить уровень сознания современного поколения технологий искусственного интеллекта. Большинство экспертов сходятся во мнении, что сегодня агентов ИИ можно отнести к Уровню 1 или очень раннему Уровню 2 сознания. Ранжирование агентов ИИ на уровне 1 связано с множеством факторов, включая мобильность. Многие агенты ИИ сегодня смогли достичь мобильности и разрабатывать модели своей среды на основе пространства вокруг них. Однако большинство агентов ИИ испытывают большие трудности при работе за пределами своей ограниченной среды.

Оценка пространства - не единственный фактор, который помещает агентов ИИ на уровень сознания I. Количество петель обратной связи, используемых для создания моделей, - еще один очень важный фактор, который следует учитывать. Давайте возьмем в качестве примера анализ изображений. Даже самые продвинутые алгоритмы искусственного зрения машинного зрения используют относительно небольшое количество петель обратной связи для распознавания объектов. Если мы сравним эти модели с когнитивными способностями насекомых и рептилий, они покажутся довольно простыми. Так что да, нынешнее поколение технологий искусственного интеллекта имеет уровень сознания насекомого;)

Переход на уровень II

Неуклонно некоторые технологии искусственного интеллекта демонстрируют характеристики сознания уровня 2. Этому развитию способствуют несколько факторов. Технологии искусственного интеллекта становятся все более продвинутыми в понимании и имитации эмоций, а также в восприятии эмоциональных реакций вокруг них.

В дополнение к развитию методов ИИ, основанных на эмоциях, агенты ИИ становятся более эффективными в групповых средах, в которых им необходимо сотрудничать или соревноваться друг с другом, чтобы выжить. В некоторых случаях групповое сотрудничество даже привело к созданию новых когнитивных навыков. Чтобы увидеть некоторые недавние примеры агентов ИИ, демонстрирующих уровень сознания 2, мы можем обратиться к работе таких компаний, как DeepMind и OpenAI.

Недавно DeepMind провела эксперименты, в которых агентам ИИ нужно было жить в среде с ограниченными ресурсами. Агенты ИИ вели себя по-разному, когда ресурсов было в изобилии, чем когда их было мало. Поведение изменилось, поскольку агентам нужно было взаимодействовать друг с другом. Другой интересный пример можно найти в недавнем имитационном эксперименте OpenAI, в котором агенты ИИ смогли создать свой собственный язык, используя небольшое количество символов, чтобы лучше сосуществовать в своей среде. Довольно круто, да?

Есть еще очень ранние дни основных решений ИИ, но повышение уровня осведомленности агентов ИИ является одной из наиболее важных целей текущего поколения стеков технологий ИИ. Сознание уровня 2 - это следующий рубеж!

Переход на уровень III

На данный момент уровень сознания III в системах ИИ все еще является активным предметом дискуссий. Однако недавние системы, такие как OpenAI Five или DeepMind Quake III, ясно продемонстрировали способность агентов ИИ к долгосрочному планированию и сотрудничеству, так что мы, возможно, не так уж и далеко.

Сознательны ли системы искусственного интеллекта?

Короткий и, возможно, неожиданный ответ - ДА. Применяя пространственно-временную теорию сознания доктора Каку к системам ИИ, становится очевидным, что агенты ИИ могут проявлять некоторые основные формы сознания. Учитывая возможности нынешнего поколения технологий ИИ, я бы поместил сознание агентов ИИ на Уровень I (рептилии) или базовый Уровень II.