Глубокое обучение — это подмножество машинного обучения, основанное на структуре и функциях человеческого мозга, также известное как искусственная нейронная сеть (ИНС).

Это не новая концепция, но она восходит к 1943 году, когда Уоррен Маккалох и Уолтер Питс разработали компьютерную модель, основанную на работе нейронных сетей человеческого мозга. Они использовали комбинацию математики и алгоритмов, которые они назвали пороговой логикой, чтобы имитировать мыслительный процесс. После этого глубокое обучение развивалось медленно и неуклонно. За это время была разработана новаторская техника под названием «Обратное распространение», которая позже была модифицирована с использованием известного цепного правила.

Глубокое обучение все еще не находится на стадии полного расцвета, но сейчас оно развивается очень быстро, и мы можем видеть что-то новое каждый месяц.

Теперь, когда у нас есть некоторое представление об истории глубокого обучения, давайте разберемся, где оно стоит, когда мы говорим об исходном термине «искусственный интеллект» (ИИ). Чтобы понять взаимосвязь между ИИ, машинным обучением и глубоким обучением, можно обратиться к следующей диаграмме концентрических кругов.

Самый внешний круг представляет AI, который определяется следующим образом:

"Наука и техника, позволяющие заставить компьютеры вести себя так, как мы считали до недавнего времени, требуют человеческого интеллекта".

Это очень обширная область изучения того, как машина учится на основе опыта и времени. Второй круг внутри ИИ показывает машинное обучение, которое является подмножеством или одним из основных сегментов искусственного интеллекта, а затем идет область глубокого обучения, которое снова является подмножеством машинного обучения и также включает искусственную нейронную сеть (ИНС).

Глубокое обучение — это широко используемое и более доступное название «Искусственная нейронная сеть». «Глубокое» в глубоком обучении означает глубину нейронов, используемых в сети. В 1990-х годах исследователи и ученые по разным причинам не могли в полной мере получить опыт работы с глубокими нейронными сетями. Некоторые из причин указаны ниже:

1. Недоступность больших данных.

2. Низкая вычислительная мощность и ресурсы.

3. Меньшая доступность исследовательской работы по сравнению с изобилием работы, доступной сегодня.

Поскольку глубокое обучение — это огромная область, и ряд исследовательских работ и исследований все еще продолжается, мы попытаемся понять наиболее распространенную модель нейронной сети, используемую в области глубокого обучения, также известную как многослойный персептрон (MLP).

Многослойный персептрон (MLP) используется для решения различных сложных задач во многих отраслях, включая анализ запасов, идентификацию изображений, обнаружение спама, обнаружение аномалий, распознавание лиц и т. д.

Что такое персептрон? Согласно Deepai, персептрон — это алгоритм, используемый для контролируемого обучения бинарных классификаторов. По сути, это однослойная нейронная сеть, несущая некоторую числовую информацию.

Многие персептроны объединяются, чтобы сформировать сложную сеть персептронов, которая также известна как многослойный персептрон. Именно так мы понимаем линейные и даже нелинейные закономерности и тенденции в наших данных.

Работа MLP

Когда множество нейронов соединяются между собой для создания сети, между ними происходит передача информации, эта работа очень похожа на то, как работает человеческий мозг, состоящий из миллиардов нейронов, и поэтому его называют величайшим творением всех время. В MLP есть три типа слоев:

Входной слой

Это начальный слой сети, который переносит вход на выход.

Скрытые слои

Скрытые слои — это все слои, на которых происходит большая часть действия. Каждому нейрону присваивается вес, и они проходят через множество функций активации, которые представляют собой не что иное, как математические функции, используемые для вычисления выходных данных каждого нейрона.

Выходной слой

В выходном слое нейронная сеть принимает окончательное решение и выдает результат.

MLP использует нейронную сеть с прямой связью, что означает, что данные, которые мы вводим, перемещаются слева направо в прямом направлении от входного слоя к выходному слою.

Как обсуждалось выше, связям между двумя слоями назначаются веса. Этот элемент несет очень полезную информацию о нейроне и очень важен для процесса обучения MLP.

Темные линии, соединяющие внешние нейроны сети, показывают, что сеть плотно и тесно связана, что означает, что все нейроны в сети связаны друг с другом.

Например, расчет для узла h может быть таким:

h = i2.w4 + i3.w5

Это простое линейное уравнение, которое показывает вычисление узлов.

Обратное распространение

Это еще один новаторский метод, который используется для оптимизации весов MLP с использованием выходных данных в качестве входных данных.

В обычном многослойном персептроне соединениям присваиваются случайные веса, и результат, к которому мы приходим, имеет тенденцию отличаться от ожидаемого или фактического результата. Разница между двумя значениями называется ошибкой . Ошибка — это то, что нам нужно уменьшить и достичь выходного значения, наиболее близкого к ожидаемому.

Здесь в игру вступает обратное распространение. Это процесс обратного прохождения сети от выхода к входу и автоматической перенастройки весов, и в конечном итоге мы достигаем результата, наиболее близкого к желаемому, и тогда мы говорим, что веса в сети оптимальны, а ошибка также сведен к минимуму.

Для этого мы используем градиенты или дифференцирование текущего узла по отношению к предыдущему узлу. Это повторяется до тех пор, пока не будет получен правильный результат.

Вы можете глубоко погрузиться в работу обратного распространения, прочитав несколько блогов на Medium или пройдя несколько курсов, которые легко доступны, если вы погуглите их. Большое спасибо за то, что остаетесь со мной в этом сладком путешествии по пониманию того, что такое глубокое обучение, и мы также смогли получить очень общее представление о работе многослойного персептрона.

использованная литература

https://www.analyticsinsight.net/the-history-evolution-and-growth-of-deep-learning/#:~:text=The%20history%20of%20deep%20learning,%20подражание%20%20мышлению %20процесс.