Глубокое обучение: градиентный спуск обратного распространения и вывод цепных правил
Привет, я, виньеш, и это мой первый блог в нейронной сети по теме прямого и обратного распространения. Этот блог предназначен для тех, кто хочет математически визуализировать обратное распространение, цепное правило, градиентный спуск. Есть много онлайн-контента для обратного распространения, цепного правила и градиента. спуск объяснен, но здесь я пытаюсь объяснить обратное распространение, цепное правило, градиентный спуск в математическом подходе.
Обратное распространение, сокращение от обратное распространение ошибок, представляет собой алгоритм контролируемого обучения искусственных нейронных сетей с использованием градиентного спуска. Учитывая искусственную нейронную сеть и функцию ошибок, метод вычисляет градиент функции ошибок по отношению к весам нейронной сети. Это обобщение правила дельты для перцептронов на многослойные нейронные сети прямого распространения.
Разница между обратным и прямым распространением?
В нейронных сетях вы выполняете прямое распространение, чтобы получить результат, и сравниваете его с реальным значением, чтобы получить ошибку.
Теперь, чтобы минимизировать ошибку, вы распространяетесь в обратном направлении, находя производную ошибки по каждому весу, а затем вычитая это значение из значения веса.
Здесь я поделился прямым распространением, обратным распространением, цепным правилом и производным градиентным спуском в виде файла pdf.
Назад Распространение pdf - ссылка здесь
Градиентный спуск pdf - ссылка здесь
Цепное правило pdf - ссылка здесь
а также я поделился кодировкой для градиентного спуска и обратного распространения
другая ссылка