Для создания интеллекта на уровне человека требуется всего несколько простых настроек

Недавние достижения в области ИИ (искусственного интеллекта) привели к появлению ошеломляющего множества новых приложений, в том числе GPT-3 (трансформеры) и ChatGPT для сложных чат-ботов, отвечающих на вопросы, DallE-2 для создания сложных изображений из простой подсказки, и AlphaFold для определения того, как в организме формируются тысячи белков. Игровое приложение AlphaGo/AlphaZero не только уверенно победило всех людей и машин, играющих в шахматы и го, но и открыло новые творческие способы игры, которые шокировали специалистов-людей.

В чем хорош AI/ML?

ИИ и машинное обучение (МО) — особенно нейронные сети глубокого обучения (НС) и обучение с подкреплением (ОП) — превосходны в распознавании образов, классификации изображений и обучении на основе вознаграждения. И RL, и NN, наряду с поиском по дереву Монте-Карло, использовались AlphaGo/AlphaZero для оценки позиций на доске и оптимизации функции вознаграждения или проигрыша (т. е. выигрыша в игре). Сыграв 30 миллионов игр против себя, он смог победить всех людей и машин.

Чем не хорош AI/ML?

Но AI/ML не идеален. Приложения для категоризации изображений должны быть снабжены тысячами или миллионами предварительно помеченных обучающих примеров (например, ImageNet), чтобы учиться; другими словами, люди должны кропотливо помечать каждый обучающий пример правильным ответом. В то время как человеческие младенцы могут учиться после нескольких редких примеров, AI/ML не может учиться очень быстро (за исключением игр с однозначными правилами и полной доступной информацией о позициях на доске).

Несмотря на то, что он чрезвычайно впечатляет как чат-бот — он переварил миллионы книг, веб-страниц, научных статей и всей Википедии — GPT-3 имеет ограниченную кратковременную память и не имеет долговременной памяти; он не может включить новые знания в свою нейронную сеть. Он не может делиться сплетнями. Это не разумно.

Как на это отреагируют GPT-3 или ChatGPT?

Пришельцы с планеты Хобот известны своими длинными носами и боязнью тех, кто на них не похож. Как ни странно, у них также отсутствует обоняние. Два Хоботка разговаривали в баре, когда кто-то с коротким носом вошел в бар, пахнущий мусором. Хоботки закричали и выбежали. Почему?

[Обновить, я только что отправил приведенный выше текст в ChatGPT, и вот ответ.]

Неверно говорить, что пришельцы с планеты Хобот имеют какие-то особые физические характеристики или поведение, поскольку они являются чисто вымышленными и не существуют в реальном мире. Следовательно, невозможно указать причину описанного вами поведения, поскольку оно основано на предпосылке, не имеющей под собой реальной основы. Важно помнить, что не все истории или описания вымышленных существ или существ основаны на фактической информации или реальных научных данных.

Нейронные сети, как правило, выявляют только неглубокие статистические отношения в больших наборах данных (например, предполагается, что слова, расположенные рядом друг с другом на странице Википедии, имеют значимую связь, хотя новые механизмы внимания несколько улучшили эту ситуацию), не понимая их по-настоящему.

НС не могут объяснить себя, сделать выводы или вывести общие принципы из обучающих данных. Им не хватает здравого смысла, они не могут адаптироваться к новым ситуациям (где им не хватает обучающих данных) и не могут перенести уже полученные знания на решение новых задач. NN на самом деле не понимают человеческие мотивы или намерения — заводить друзей, соответствовать социальным нормам, потребность в одобрении, страх быть обделенным, сохранение лица, поиск статуса, стремление к порядку и т. д. — подразумеваемые, скажем, в романе. или запись в Википедии о Юлии Цезаре (подсказка: он был амбициозен и умел вдохновлять верных последователей).

Более того, AI/ML не может вообразить возможные миры и контрфакты. Что, если бы Нео не принял красную таблетку в фильме «Матрица»? Нейронная сеть не может начать строить догадки (если только она не обучена написанной человеком статье, содержащей предлагаемый ответ).

Что такое нейронная сеть на самом деле?

Нейронные сети, используемые в AI/ML, состоят из нейроноподобных «узлов», которые сгруппированы в слои и соединены взвешенными «ребрами». Обычно каждый узел получает входные данные (через ребра) только от узлов предыдущего слоя, как показано ниже:

Каждый узел имеет значение активации, а каждое ребро имеет вес. Значения активации (узлов в одном слое) умножаются на веса ребер и передаются узлам в следующем слое. Как только он получает все эти взвешенные входные данные, например, [3.5, 1.2, 9.3 и т. д.], принимающий узел объединяет их и применяет свою собственную «функцию активации» (например, сигмовидную, ReLU, softmax и т. д.) и смещение для расчета один выход (значение активации), которое он передает на следующий уровень, и так далее.

Да, но… что на самом деле делает нейронная сеть (NN)? Его задача состоит в том, чтобы аппроксимировать функцию, которая связывает входные данные с желаемыми выходными данными. Например, если вы подаете 784 пикселя изображения во входной слой NN, он может пометить изображение как «кошка» или «собака» через свой выходной слой. Но сначала НС нужно обучить, скармливая ей тысячи или миллионы предварительно размеченных изображений собак и кошек. Чтобы убедиться, что выходной слой дает правильный ответ (например, 0 = собака, 1 = кошка), так называемый алгоритм «обратного распространения» корректирует вес каждого ребра и смещение узла (чтобы уменьшить ошибку прогнозирования вывода). После обучения НС действует как аппроксиматор функций, чтобы связать входные данные (изображения) с правильной классификацией (собака или кошка). Представленный с новым изображением, он должен быть в состоянии классифицировать его как собаку или кошку.

Интересно, что скрытые слои также могут использоваться в качестве псевдосимволов для семантического представления сложных понятий. (См., например, Word2vec и встраивание слов. Подробнее об этом позже.)

Что такое ОИИ?

AGI — искусственный общий интеллект или интеллект человеческого уровня — требует большей функциональности, чем предоставляет текущий AI/ML. Чтобы соответствовать людям, ИИ необходим здравый смысл, интуитивное понимание физики (как объекты движутся и взаимодействуют), интуитивная психология (как думают другие люди и каковы их намерения), синтаксис языка и понимание причинно-следственных связей. ОИИ также должны уметь рассматривать контрфактуальные ситуации («что, если?») и представлять/моделировать/предсказывать новые ситуации.

Без этих предварительных (заранее определенных) концепций ОИИ будет слишком медленно адаптироваться и учиться в реальном мире. (Мы не можем позволить себе ждать, пока AGI будет обучен на больших наборах данных — на обучение GPT-3 ушло 3 месяца — или заниматься миллионами итераций самостоятельной игры, каждый раз узнавая что-то новое.)

ОИИ должны быть в состоянии думать — и общаться с помощью языка — о понятиях (пространство, время, причинность, человеческие намерения) и их отношениях. ИИ должны быть в состоянии изучать новые категории, сохранять рабочую память и долговременную память (например, «кто кому что сказал» или «как играть в теннис») и включать новые знания с помощью всего нескольких обучающих примеров.

ОИИ должны быть в состоянии по мере необходимости фокусировать избирательное внимание и рассуждать о ментальных концепциях, даже если не поступают новые данные (через органы чувств). ОИИ должны уметь объяснять процесс своих рассуждений, проверять новые гипотезы, а также определять и применять новые правила и законы. Они должны уметь ставить долгосрочные цели и работать над их достижением.

Возможно, наиболее важно то, что ОИИ должны быть в состоянии действовать, вмешиваться и вмешиваться в мир людей, а также понимать наши мотивы.

Итак, как мы можем адаптировать AI/ML к AGI?

Во-первых, AGI должен сохранить то хорошее, что есть в текущем AI/ML, включая сильное распознавание образов, распределенное представление и поиск вознаграждения.

Во-вторых, узлы в нейронных сетях должны стать более специализированными, с предварительным знанием «понятий». Что такое концепция? Это просто узел, который помечен предопределенным типом — то, что узел представляет — так что AGI может говорить и рассуждать об этом. Типы понятий включают: есть-время, есть-местоположение, есть-объект, есть-чувствующее, есть-действие, есть-причина, есть-мотивация, есть-убеждение, есть-ошибка, есть-план, есть-количество, есть- после, является частью, приписывается, объясняется или является воображаемым.

В-третьих, понятия AGI должны иметь возможность взаимодействовать с любым другим понятием в сети, независимо от уровня. Это позволит концептам отправлять и получать информацию от любого другого концепта, который они выберут. (Вместо использования символов — например, GOFAI! — для ссылок на понятия и типы, AGI будет использовать семантические векторы, такие как Word2vec, для решения проблемы заземления символов.)

В-четвертых, концепции должны сохраняться как автономные агенты. Например, концепция мяча должна продолжать существовать в ментальной модели ОИИ, даже когда мяч исчезает за диваном. Перефразируя епископа Беркли, в ментальной модели существуют понятия, и только понятия.

В-пятых, концепции ОИИ должны позволять порождать новые концепции на лету. Вместо статической сети узлов (как в современных нейронных сетях) для поддержки нового обучения и долговременной памяти ОИИ необходимо постоянно генерировать (и, в конечном итоге, выводить из эксплуатации) новые концепции.

В-шестых, каждый тип концепции ОИИ должен иметь соответствующую функцию активации. Например, концепция «это план» может иметь функцию активации, связанную с созданием и поддержанием долгосрочного плана, подцели которого также являются концепциями. Интервенционные концепции, такие как «заводить друзей» и «соответствовать социальным нормам», должны иметь связанную с ними функцию вознаграждения, которую необходимо максимизировать.

В-седьмых, обратное распространение (уменьшение ошибок, градиентный спуск) должно быть функцией, выполняемой самими концепциями. Таким образом, каждое понятие является активным, автономным, целеустремленным агентом, оптимизирующим вознаграждение, со своим собственным динамичным и постоянным процессом обучения.

AGI достигнут!

С помощью этих простых настроек нейронные сети и другие инструменты AI/ML могут поддерживать ментальные представления, необходимые для поддержки человеческого мышления, общения, мотивации и воображения.