OpenAI — это некоммерческая исследовательская компания в области искусственного интеллекта, основанная в 2015 году при поддержке Илона Маска на миллиардные инвестиции, главная цель которой — найти путь к общему искусственному интеллекту. В августе 2018 года один из их ИИ-агентов, Five, выиграл игру в Dota против команды из пяти профессионалов. Этот момент стал еще одной вехой в растущих достижениях искусственного интеллекта, включая сверхчеловеческие способности в шахматах и ​​го. Состояния в Dota на порядки сложнее, чем в предыдущих играх, что делает задачу, которую решает OpenAI, качественно иной. Но, несмотря на миссию OpenAI по созданию искусственного общего интеллекта, OpenAI Five не представляет более высокий общий интеллект. Успех OpenAI Five стал результатом обучения хорошо зарекомендовавшего себя алгоритма машинного обучения на смоделированных играх Dota за более чем миллионы лет (https://openai.com/five/). Методы машинного обучения, и в частности методы обучения с подкреплением, потенциально могут быть использованы для создания истинного общего интеллекта, но средства массовой информации часто преувеличивают текущие возможности машинного обучения и упускают из виду его фундаментальные ограничения.

В последнее время искусственный интеллект и, в частности, машинное обучение привлекли значительное внимание средств массовой информации и стали играть все более важную роль в нашей повседневной жизни. Однако то, как искусственный интеллект изображается в СМИ, часто искажает его возможности и то, как он на самом деле влияет на нашу жизнь. Практически все практические применения искусственного интеллекта сегодня классифицируются как «узкий ИИ» или искусственный интеллект, предназначенный для одной узкоспециализированной задачи. Например, широко распространенное использование машинного обучения — это анализ данных о поведении в Интернете, проводимый онлайн-медиакомпаниями, чтобы решить, какую рекламу вам показывать. Анализ закономерностей в прошлых данных не является настоящим интеллектом, и это не все, что мы хотим, чтобы компьютеры могли делать.

Оборотная сторона — искусственный общий интеллект. Это предел мечтаний многих исследователей искусственного интеллекта, и новые разработки в области ИИ часто имеют аналогии с человеческим мозгом, несмотря на то, насколько надуманными они на самом деле являются. Однако современное машинное обучение может быть не на правильном пути. Будущий искусственный общий интеллект может сильно отличаться от машинного обучения, включая методы и знания из многих других областей.

Фон

Искусственный интеллект включает в себя широкий спектр методов. Академики проводят исследования в области искусственного интеллекта по крайней мере с 1956 года, когда в Дартмутском колледже студенты обучали компьютеры играть в шашки, решать алгебраические задачи, доказывать логические теоремы и говорить по-английски (Russel and Norvig, 2003). Нейронные сети, основная часть современного машинного обучения, уходят своими корнями в персептрон — алгоритм распознавания образов, созданный в 1958 году (Хайкин, 2009).

Область использования и изучения нейронных сетей называется глубоким обучением. Современные приложения ИИ широко используют нейронные сети. Из-за увеличения вычислительной мощности и доступных данных на несколько порядков нейронные сети имеют гораздо более широкое практическое применение, чем до 21 века (Amodei and Hernandez, 2018). Тем не менее, глубокое обучение — это, по сути, распознавание образов из случайной выборки, и оно отлично подходит для сопоставления входных данных с выходными. Например, одно приложение предназначено для сопоставления характеристик дома с его ценой на основе случайной выборки данных рынка жилья. Обучение с подкреплением основано на инструментах глубокого обучения, которые позволяют компьютеру выбирать между действиями, сопоставляя различные действия с различными значениями вознаграждения, определяемыми пользователем. В то время как глубокое обучение находится в авангарде современных практических приложений ИИ, обучение с подкреплением — это быстрорастущая область, в которой за последние пару лет произошли большие инновации и много новых разработок.

Машинное обучение, глубокое обучение и обучение с подкреплением: механика

Чтобы помочь читателю понять ограничения машинного обучения, я представлю обзор области контролируемого машинного обучения и расскажу об основах. В своей наиболее фундаментальной форме машинное обучение с учителем — это процесс поиска математической функции для отображения от ввода к выводу. Глубокое обучение — это область машинного обучения, представляющая функцию отображения с использованием нейронной сети. Однако контролируемое машинное обучение можно применять новыми способами, выходящим за рамки простого отображения ввода-вывода. Алгоритмы глубокого обучения с подкреплением, такие как тот, что стоит за OpenAI Five, используют машинное обучение для выбора между определенными действиями, чтобы максимизировать вознаграждение, определенное человеком. Ниже я подробно расскажу о каждой подобласти и приведу примеры современных реальных приложений.

На базовом этапе контролируемое машинное обучение состоит в изменении заданной функции. Например, предположим, что мы пытаемся найти функцию для сопоставления размера дома с его ценой, и мы начинаем со следующей функции:

«a» и «b» — это «веса», которые алгоритм будет изучать, меняясь после каждой новой полученной точки данных. Если, учитывая размер определенного дома, наша функция выводит цену, превышающую фактическую цену, наш алгоритм просто уменьшит «а» и «b» на определенную величину, основываясь на наклоне ошибки относительно «а» и против «б» соответственно.

В результате алгоритм получит функцию с минимальной общей ошибкой для точек данных, на которых он обучался. Если мы предоставили достаточно данных, функция зафиксирует закономерность роста цены дома по мере увеличения его размера, то есть ее параметр «а» будет положительным. Мы также можем расширить эту идею, чтобы работать с несколькими входными значениями, имея такое уравнение, как

После того, как наша функция дома обучена на достаточном количестве данных, мы можем дать ей размер дома, на котором она не обучалась, в качестве входных данных, и она выведет прогнозируемую цену. По сути, функция кодирует корреляции, найденные в данных, которые мы ей предоставили. Эти данные, размер и стоимость некоторых домов, можно рассматривать как случайные выборки из всего населения, размера и цены всех домов. Следовательно, машинное обучение — это, по сути, распознавание образов из случайной выборки. Чем больше или более репрезентативна случайная выборка, тем лучше функция будет обобщаться на будущие выборки.

Удивительно, но этот простой процесс оказался достаточно мощным, чтобы его можно было использовать во множестве полезных приложений, от распознавания изображений до обработки естественного языка и здравоохранения.

Конечно, шаблоны, которые может представлять алгоритм, ограничены формой используемой им функции. Глубокое обучение использует нейронные сети для представления сложных функций, структура которых определяется архитектурой нейронной сети. Каждый «нейрон» принимает набор входных данных, умножает их один за другим на набор параметров, а затем выводит сумму после прохождения ее через «функцию активации». Для высокоэффективной функции активации, известной как ReLU, это означает установку суммы на 0, если она меньше 0.

Полносвязный слой в нейронной сети состоит из нескольких нейронов, каждый из которых принимает один и тот же набор входных данных и выдает разные выходные данные. Затем набор выходов используется в качестве входов для следующего слоя. При обучении алгоритм глубокого обучения будет изменять параметры для каждого нейрона, чтобы свести к минимуму ошибку.

Существуют и другие типы слоев. В сверточных нейронных сетях, которые оптимизированы для приема изображений в качестве входных данных, набор нейронов используется в качестве «фильтра» в форме сетки, который может обнаруживать такие особенности, как края. Рекуррентные нейронные сети оптимизированы для работы с временными рядами или последовательными данными за счет наличия разных наборов нейронов, отвечающих за считывание данных в разных точках последовательности.

Использование нейронных сетей позволяет находить гораздо более сложные функции. Эти функции кодируют огромное количество информации о корреляции между входными и выходными данными в виде параметров функции, также известных как веса нейронов. Однако из-за того, что существует так много весов, что приводит к такой большой гибкости, нейронные сети подвержены явлению, известному как «переоснащение». Поскольку нейронные сети обучаются только на выборке, в идеале случайной, истинной совокупности данных (поскольку можно предоставить сети только конечный объем данных, к которым у него есть доступ), нейронные сети могут кодировать случайную корреляцию, которая только обнаруживается. в обучающих данных. Это повышает точность обучающих данных, но снижает точность не обучающих данных. Уменьшение переобучения — хорошо зарекомендовавшая себя и активная область исследований в области машинного обучения, но один из универсальных способов уменьшить переобучение — это увеличить размер выборки, то есть собрать больше обучающих данных. По сути, поскольку нейронные сети настолько гибкие, чем больше данных они предоставляют, тем точнее и мощнее они становятся.

В конечном счете, глубокое обучение позволяет использовать простой процесс поиска функции отображения в самых разных областях. Например, распознавание изображений естественным образом подходит для сверточных нейронных сетей. Чтобы определить, относятся ли изображения к кошке, алгоритм глубокого обучения может просто представить изображение по его значениям в пикселях и вывести на выходе двоичную метку 0 или 1. Поскольку нейронная сеть может выводить несколько значений (одно для каждый нейрон в последнем слое), он может предсказывать сразу несколько разных меток, поэтому алгоритм также может одновременно решать, является ли изображение собакой. Все, что нужно, — это достаточно большой набор изображений с пометками «кошка», «собака», «и то, и другое» или «ни то, и другое», чтобы алгоритм мог тренироваться.

Обучение с подкреплением, подобласть машинного обучения, расширяет возможности контролируемого обучения за пределы сопоставления входных данных с выходными. При обучении с подкреплением компьютер выбирает между действиями. Обучение с подкреплением может быть применено к различным задачам принятия решений. Однако обучение с подкреплением крайне неэффективно с точки зрения данных. В результате две самые большие области, в которых академические исследователи изучают обучение с подкреплением, — это видеоигры и робототехника, обе из которых легко моделируются в цифровом виде.

При обучении с подкреплением компьютер управляет агентом в среде и выбирает между заданным набором действий, чтобы максимизировать значение вознаграждения, определенное пользователем.

Действия выполняются внутри эпизодов, длящихся конечное количество временных шагов. На каждом временном шаге среда находится в определенном состоянии. В зависимости от состояния и действий, предпринимаемых агентом, агент получает вознаграждение, а среда переходит в другое состояние. В конечном счете, цель любого алгоритма обучения с подкреплением состоит в том, чтобы найти политику, которая представляет собой функцию, которая принимает состояние в качестве входных данных и возвращает выбранное действие в качестве выходных данных (Саттон и Барто, 2018).

В области обучения с подкреплением изучается широкий спектр различных алгоритмов для выбора оптимальных действий, но эти алгоритмы можно разделить на два класса: без моделей и на основе моделей. Алгоритмы без моделей нацелены на непосредственную оценку различных действий, в то время как алгоритмы на основе моделей стремятся сначала построить внутреннюю «оценку» среды, предсказывая реакцию среды на каждое действие.

Одним из классов алгоритмов без моделей являются алгоритмы оценки значений, в которых значения присваиваются каждой возможной паре состояние-действие. По сути, как только агент выполняет определенное действие в определенном состоянии, алгоритм будет отслеживать общее вознаграждение, полученное с этого момента и далее до конца эпизода, который называется возвратом. В очень простом алгоритме значение, присвоенное каждой паре состояние-действие, будет средним значением всех ее возвратов по нескольким эпизодам. Затем, при выборе между действиями в определенном состоянии, политика просто будет выполнять действие, имеющее наибольшее значение в паре с этим состоянием. Исследования, проводимые в рамках класса алгоритмов оценки значений, вращаются вокруг поиска наиболее эффективных и точных способов присвоения значений состояниям.

Тем не менее, политика, которую разрабатывает любой алгоритм, зависит от среды и вознаграждения, с которым он обучался. Например, агент, обученный играть в аркадную игру Pong, не сможет хорошо играть в Dota.

Тем не менее, два агента Pong все еще могут быть обучены качественно разными способами, в зависимости от вознаграждения, которое человек решает определить. Если агент 1 получает положительное вознаграждение за победу над противником, а агент 2 получает отрицательное вознаграждение каждый раз, когда теряет мяч, то агент 1 будет пытаться выиграть как можно больше, а агент 2 попытается продлить игру как можно дольше. как можно дольше. Этот простой пример показывает, что вознаграждение по-прежнему в конечном итоге определяет поведение обученного агента, поэтому очевидно, что алгоритмы обучения с подкреплением по-прежнему полагаются на цели, определенные человеком, и работают только для максимизации этой одной цели в одной конкретной среде.

Однако есть одна область исследований, которая сосредоточена на решении этой нехватки общности. Мета-обучение, также известное как трансферное обучение, относится к процессу обучения, чтобы учиться. По сути, алгоритм метаобучения направлен на то, чтобы перенести то, что он узнал в одной задаче, и применить его к другим задачам (Финн, Аббил и Левин, 2017).

Чтобы получить представление о том, как работают некоторые алгоритмы метаобучения, полезно оглянуться назад на построение нейронной сети. Набор нейронов образует слой. Самый первый слой берет и обрабатывает данные из ввода, затем передает их следующему слою, который передает их следующему слою, и так далее, пока последний слой не выдаст результат.

В большинстве задач при обучении нейронной сети происходит то, что более ранние слои становятся основными детекторами признаков. Например, в сверточной нейронной сети, обученной обнаруживать изображения кошек, сетка нейронов во втором слое может быть «обучена» выдавать высокое значение при наличии края в определенной области входного изображения. Будущие слои будут более специфичными для проблемы, используя информацию об основных функциях из предыдущих слоев, чтобы определить, является ли изображение кошкой.

Тем не менее ясно, что обученная нейронная сеть теперь содержит информацию, полезную не только для конкретной задачи обнаружения кошек. Если теперь мы создадим новую сеть, инициализированную как копию сети кошек, с теми же параметрами, то эта новая сеть будет начинаться с более ранних слоев, способных обнаруживать основные функции, такие как ребра. Если затем мы обучим эту сеть обнаруживать изображения собак, она сможет обучаться быстрее, чем сеть, параметры которой были инициализированы случайными значениями. Действительно, распознавание изображений — это область, в которой полезная информация, по-видимому, может передаваться от задачи к задаче, и процесс использования обученной сети из одной задачи распознавания изображений в качестве исходной сети для другой задачи распознавания изображений был экспериментально проверен, чтобы обеспечить повышение производительности. Как в промышленности, так и в исследованиях принято начинать с предварительно обученной модели для задач распознавания изображений, а не инициализировать модель со случайными параметрами (Wang, Huan, & Zhu, 2018).

Эта идея слоев нейронной сети, хранящих полезную, обобщаемую информацию, может быть применена к обучению с подкреплением. Процесс обучения модели определенным исходным задачам с целью повышения скорости обучения и производительности при выполнении различных, но связанных целевых задач, известен как многозадачное или переносное обучение. По словам профессора Мэтью Э. Тейлора, использование трансферного обучения для улучшения определенного набора целевых задач включает три отдельных шага. Необходимо определить набор исходных задач, обнаружить взаимосвязь между исходными и целевыми задачами, а затем перенести знания из исходных задач в целевые задачи (Taylor, 2009). Хотя эти шаги связаны, не существует единого алгоритма трансфертного обучения, который без проблем выполняет все эти задачи. Скорее, каждый алгоритм трансферного обучения фокусируется на определенном шаге. Во многих алгоритмах исследователи выбирают исходные задачи, а алгоритм отвечает за передачу знаний от источника к целевым задачам.

Трансферное обучение применялось во множестве различных задач обучения с подкреплением. В робототехнике в смоделированных средах можно собрать гораздо больше данных, чем в реальной жизни. Конечно, смоделированная среда никогда не будет точно такой же, как реальность, и, таким образом, методы трансферного обучения повышают точность.

Недавно исследователи также изучали перенос обучения на уровни видеоигр. В этом месяце OpenAI выпустила новый тест Coin Run, чтобы проверить, насколько хорошо агенты обучения с подкреплением могут передавать знания на разных уровнях, используя одну и ту же базовую механику. Их бенчмарк процедурно генерирует уникальные уровни, но все уровни имеют общую цель — получить монету в конце уровня (Cobbe, 2018).

При обсуждении прогресса в области трансфертного обучения важно признать, что трансфер знаний может привести к качественно различным преимуществам. Например, начальную и/или конечную производительность агента при выполнении целевой задачи можно улучшить путем предварительной подготовки к исходной задаче. В результате существует множество возможных метрик, которые можно использовать для оценки алгоритма обучения с передачей, таких как общее вознаграждение, вознаграждение по сравнению с агентом обучения без передачи или время, необходимое для достижения определенного заранее заданного порога производительности. Таким образом, из-за различий в целях и показателях оценки не существует единого «современного» метода трансферного обучения.

Тем не менее, во всех областях трансфертного обучения по-прежнему наблюдается активный прогресс. Естественно рассмотреть, как трансферное обучение может привести к искусственному общему интеллекту. Его возможности в этом отношении зависят от точного определения общего искусственного интеллекта. Тем не менее, интеллект, достаточно способный выполнять достаточно большой набор задач, будет рассматриваться большинством как ОИИ. Однако в настоящее время методы трансферного обучения по-прежнему работают намного лучше, если компьютер также обучен целевым задачам — трансферное обучение может просто улучшить первоначальную производительность. Хотя это означает значительное время, затрачиваемое на изучение большого набора задач, можно установить связь между этим аспектом трансферного обучения и человеческим мозгом. Как маленькие дети, наши возможности низки. Нам нужно много времени, чтобы научиться делать простые вещи. Однако по мере того, как мы становимся старше, мы накапливаем больше опыта, и, сталкиваясь с новой ситуацией, мы можем опираться на свой прошлый опыт. Хотя люди гораздо более надежны, чем алгоритмы машинного обучения в настоящее время, можно представить себе будущее, в котором машина с переносом обучения справится с невероятно большим набором задач до такой степени, что она будет более способной, чем средний человек. Хотя такая машина не обязательно находится в сознании и не обязательно испытывает эмоции, она соответствует определению «разума человеческого уровня».

Однако такая машина является чистой спекуляцией, и вполне вероятно, что машина, обученная с использованием методов обучения с подкреплением и трансфертного обучения, подобных тем, которые используются сегодня, никогда не сможет достичь интеллекта человеческого уровня из-за нехватки ресурсов или теоретических ограничений.

Помимо машинного обучения

Глубокое обучение по своей природе ограничено. Большая часть приложений искусственного интеллекта, обсуждаемых сегодня в средствах массовой информации, таких как обнаружение объектов, по сути, представляет собой прославленное распознавание образов. Модели глубокого обучения должны быть снабжены большими объемами данных, чтобы найти статистические тенденции в этих данных. Человек должен разработать модель таким образом, чтобы выявленные ею тенденции были значимыми и полезными. Область применения любой модели глубокого обучения обычно невероятно узка. Из-за того, что нейронная сеть представляет собой черный ящик — полученная информация кодируется как набор параметров, которые исследователям еще предстоит найти способ понять, — мы не знаем, почему модель глубокого обучения принимает решения, которые она принимает. Таким образом, даже при вмешательстве человека модель глубокого обучения часто полезна только для одной задачи.

В интервью с Йошуа Бенжио, одним из самых влиятельных участников в период подъема глубокого обучения в 1990-х годах, Бенжио выразил неудовлетворенность текущим состоянием исследований искусственного интеллекта с точки зрения окончательного приближения ИИ к человеческому уровню. Бенжио подчеркивает, что «нам нужно учитывать сложные задачи ИИ и не довольствоваться краткосрочными постепенными достижениями». Большая часть усилий в академической области глубокого обучения и обучения с подкреплением сосредоточена на постепенном улучшении производительности в известных тестах, таких как набор данных для распознавания изображений ImageNet. Бенжио подчеркивает необходимость расширения исследовательской деятельности в более новых, творческих областях: «Я не говорю, что хочу забыть о глубоком обучении… Но мы должны иметь возможность расширить его, чтобы делать такие вещи, как рассуждения, изучение причинно-следственных связей и исследование мира. (Рыцарь, 2018). Помимо изменения параметров функции, представленной нейронной сетью, есть много других способов улучшить машинный интеллект.

Возможно, одного современного глубокого обучения недостаточно для создания общего искусственного интеллекта. Из-за своих мощных и многочисленных практических приложений глубокое обучение является самой быстрорастущей областью искусственного интеллекта, но есть и другие текущие области исследований, которые могут быть необходимы на пути к ОИИ.

Небольшая компания под названием Numenta занимается менее известным проектом в мире искусственного интеллекта. Они работают над созданием практической реализации того, что они называют «иерархической временной памятью» или HTM. Их реализация HTM имеет сходство с нейронными сетями, но цель HTM — максимально точно имитировать неокортекс человека. Однако их реализация HTM в настоящее время нашла ограниченное практическое применение, поскольку методы глубокого обучения превосходят HTM Numenta во многих задачах. Кроме того, многие исследователи глубокого обучения не обладают знаниями в области нейронауки, чтобы полностью понять мотивацию и теорию, лежащую в основе HTM, что делает его менее открытым и менее сосредоточенным. Тем не менее, для достижения общего искусственного интеллекта, скорее всего, потребуются знания нейробиологов, независимо от того, будет ли это в конечном итоге включать в себя имитацию человеческого мозга с помощью методов, подобных нейронным сетям.

Однако есть и другая сторона области искусственного интеллекта. В искусственном интеллекте существует различие между «символическим» и «коннекционистским» ИИ.

Все методы искусственного интеллекта, которые мы до сих пор обсуждали, считаются коннекционистским ИИ, включая HTM Numenta. Коннекционистский ИИ использует «массивно параллельные модели, [состоящие из] большого количества простых и унифицированных элементов обработки» и хранит распределенные представления данных. Нейронные сети явно подпадают под это определение, состоящее из большого количества простых элементов, обрабатывающих распределенные представления входных данных, таких как значения пикселей изображения. Другая парадигма, символический ИИ, касается моделей, основанных на манипулировании символами. В отличие от коннекционистского ИИ, в символических моделях «агрегированная информация явно представлена ​​совокупными структурами, построенными из составляющих символов и синтаксических комбинаций этих символов» (Sun, 2000).

Несмотря на его отсутствие сегодня в средствах массовой информации, символический ИИ существует, по крайней мере, столько же, сколько коннекционистский ИИ, и был более важен для большей части истории искусственного интеллекта. В 1960-е годы символические подходы к искусственному интеллекту начали вытеснять коннекционистские подходы, тем более что персептрон, одна из первых нейронных сетей, в то время имел ограниченное практическое применение из-за нехватки вычислительной мощности и данных. Некоторые исследователи символического искусственного интеллекта считали искусственный общий интеллект целью своей области, поскольку они искренне верили, что это достижимо с помощью символического подхода (McCorduck, 2004).

В настоящее время из-за постоянно растущего объема данных и значительного повышения вычислительной мощности ситуация изменилась. Глубокое обучение имеет гораздо более широкое практическое применение, чем символические подходы, и гораздо более популярно. Однако это не повод игнорировать символические подходы как потенциально необходимый строительный блок для ОИИ.

Одним из наиболее успешных символьных подходов являются экспертные системы. Экспертные системы включают в себя набор «производственных правил», которые по сути являются утверждениями «если-то». Эти продукционные правила являются человеческими знаниями, заданными как часть программы. В конечном счете, экспертная система будет «рассуждать», используя эти правила, манипулируя ими и обрабатывая их вместе с определенными входными данными, чтобы прийти к определенным выводам или определить, какая дополнительная информация ей нужна (Novak, 1998). В конечном счете шаги, посредством которых экспертная система пришла к своим выводам, будут понятны человеку.

Хотя экспертные системы не обязательно могут «рассуждать» о вещах, а вычислять перестановки производственных правил на порядки быстрее, чем люди, они могут в конечном итоге производить рассуждения, понятные людям. Хотя экспертные системы далеки от того, чтобы быть интеллектуальными автономно, поскольку им требуются человеческие знания в форме производственных правил, их фундаментальный процесс вывода отсутствует в стандартных моделях глубокого обучения.

В общем, в коннекционистских подходах отсутствует причинно-следственная связь, то есть процесс идентификации причины и следствия. Стандартное контролируемое обучение не идентифицирует причину и следствие — оно определяет только взаимосвязь между входом и выходом. Это, конечно, ограничивает возможности обобщения моделей обучения с учителем. Люди полагаются на способность приобретать причинно-следственное понимание процессов из одной задачи, которую мы затем можем применить к другим задачам. По словам Йошуа Бенджио, «если у вас есть хорошая каузальная модель мира, с которым вы имеете дело, вы можете делать обобщения даже в незнакомых ситуациях». Это очень важно. Мы, люди, способны проецировать себя в ситуации, которые сильно отличаются от нашего повседневного опыта. Машин нет, потому что у них нет этих каузальных моделей» (Knight, 2018). Предыдущие исследования включали причинно-следственные рассуждения в коннекционистские подходы. При необходимости сделать определенные предположения можно математически определить причинно-следственные связи только на основе данных наблюдений (Ranganath and Perotte, 2018). Тем не менее, эти коннекционистские подходы по-прежнему страдают от проблемы черного ящика — хотя модель может определить, что переменная x вызывает переменную y, она не может определить, почему — и не представляет автономных рассуждений, выходящих за рамки статистического вывода.

Тем не менее машинное обучение сегодня является наиболее широко известной и практически используемой формой искусственного интеллекта. В конечном счете коннекционистский подход к кодированию огромных объемов информации, распределенной по множеству отдельных простых компонентов, оказался очень мощным. Процесс нахождения отображения составной функции от входа к выходу может быть расширен и применен к различным полям. Тем не менее, современные подходы требуют человеческого вмешательства для каждой новой задачи, а нейронные сети зависят от данных, специфичных для предметной области, чтобы добиться успеха. Чтобы достичь общего интеллекта, который может рассуждать коммуникативным способом и автономно применять старый опыт к новым задачам, мы должны выйти за рамки коннекционистских подходов, основанных на данных, и направить исследования в другие области, такие как символическое рассуждение и причинно-следственный вывод.

Ссылки

Рассел, С.Дж., и Норвиг, П. (2003). Искусственный интеллект: современный подход (2-е изд.). Река Аппер-Сэдл, Нью-Джерси: Prentice Hall/Pearson Education.

Хайкин, С.С. (2009). Нейронные сети и обучающиеся машины (3-е изд.). Река Аппер-Сэдл: Пирсон.

Амодей, Д., и Эрнандес, Д. (2018 г., 16 мая). ИИ и вычисления [запись в веб-журнале]. Получено 7 ноября 2018 г. с https://blog.openai.com/ai-and-compute/

Саттон, Р.С., и Барто, А.Г. (2018). Обучение с подкреплением: введение (2-е изд.). Получено с http://incompleteideas.net/book/the-book-2nd.html

Тейлор, Мэн (2009). Передача обучения для доменов обучения с подкреплением: опрос. Journal of Machine Learning Research, 10, 1633–1685. Получено 2 октября 2018 г. с сайта http://www.jmlr.org/.

Финн, К., Аббил, П., и Левин, С. (2017, 18 июля). Модельно-независимое метаобучение для быстрой адаптации глубокого… Proceedings of Machine Learning Research, 70,1126–1135.Получено 2 декабря 2018 г. с https://arxiv. .org/pdf/1703.03400»

Коббе, К. (2018, 6 декабря). Количественное обобщение в обучении с подкреплением [запись в веб-журнале]. Получено с https://blog.openai.com/quantifying-generalization-in-reinforcement-learning/

Ван, Т., Хуан, Дж., и Чжу, М. (2018 г., ноябрь/декабрь). Глубокое трансферное обучение на основе экземпляров. В АрХив. Получено 2 декабря 2018 г. с https://arxiv.org/pdf/1809.02776.pdf.

Найт, В. (18, 17 ноября). Интеллектуальные машины Один из отцов ИИ беспокоится о его будущем. Обзор технологий. Получено 29 ноября 2018 г. с сайта https://www.technologyreview.com/s/612434/one-of-the-fathers-of-ai-is-worried-about-its-future/.

МакКордак, П. (2004). Машины, которые думают: личное исследование истории и перспектив искусственного интеллекта (3-е изд.). Натик, Массачусетс: AK Peters.

Сан Р. (2000 г., ноябрь/декабрь). Искусственный интеллект: коннекционистский и символический подходы. Получено с http://www.cogsci.rpi.edu/~rsun/sun.encyc01.pdf

Новак, Г.С., и Портер, Б.В. (1988). Введение в экспертные системы (3-е изд.). Монро, Луизиана: Университет Северо-Восточной Луизианы

Ранганат Р. и Перотт А. (18, 7 августа). Множественные причинно-следственные связи со скрытым искажением[Научный проект]. Получено 2 декабря 2018 г. с https://arxiv.org/abs/1805.08273.

Источники изображения:

График цен на жилье: https://www.coursera.org/learn/machine-learning

Atari Breakout: https://www.youtube.com/watch?v=V1eYniJ0Rnk

Визуализация CNN: http://cs231n.github.io/understanding-cnn/

OpenAI Coin Run: https://blog.openai.com/quantifying-generalization-in-reinforcement-learning/

Диаграмма Numenta HTM: https://numenta.com/neuroscience-research/research-publications/outside-research/