Публикации по теме 'gradient-descent'


Понимание нейронной сети через скретч-кодирование на R; Руководство для начинающих
Практическое ванильное моделирование, часть 2 Если вы когда-либо погружались в мир науки о данных, то для меня не будет абсурдом предположить, что вы наверняка где-то встречали термин нейронные сети , на каком-то этапе вашего пути к изучению машинного обучения и искусственного интеллекта или науки о данных в целом. Наиболее одобренное определение нейронной сети (NN) заключается в том, что это компьютерная архитектура, вдохновленная мозгом, содержащая различные сетевые..

Градиентов и матриц
Этот пост содержит дополнительную информацию для читателей Программирование машинного обучения . Он фокусируется на одной строчке кода из книги: коде, который вычисляет градиент потерь относительно весов. Когда вы впервые видите эту строчку в книге, она выглядит так: В книге функции, вычисляющие градиент, называются gradient () . Здесь я заключил код в функцию с именем gradient_one_input () . Название подчеркивает тот факт, что этот код работает, когда у нас есть одна входная..

Введение в линейную регрессию и градиентный спуск
Привет мир! Меня зовут Джаред, и в настоящее время я изучаю информатику. Меня уже давно интересует искусственный интеллект, и я хотел начать писать сообщения в блоге, чтобы помогать себе и другим обучаться темам в этой области. Сегодняшний пост посвящен алгоритму градиентного спуска и тому, как он используется в линейной регрессии. Линейная регрессия используется для поиска линии наилучшего соответствия (также известной как минимизация «несоответствия») для определенного набора данных...

Объяснение алгоритма градиентного спуска
Градиентный спуск — это итеративный алгоритм оптимизации. В линейной регрессии он используется для оптимизации функции стоимости и поиска значений θ1 (оценщиков), соответствующих оптимизированному значению функции стоимости. Предположим, что мы идем вниз по графику ниже, и мы находимся в зеленой точке, и наша цель — достичь минимальной красной точки. У нас нет никакой видимости, поэтому мы можем либо подняться, либо опуститься. Градиентный спуск помогает здесь решить, как достичь..

Исчезающие и растущие градиенты в нейронных сетях
Краткий обзор Что такое градиент? Градиент относится к градиенту функции потерь по отношению к весам. Мы вычисляем градиент во время обратного распространения в рекуррентных нейронных сетях. Эти градиенты используются для обновления весов, чтобы минимизировать функцию потерь. С обратным распространением мы можем столкнуться в основном с двумя проблемами: Исчезающий градиент Взрывающийся градиент Исчезающий градиент: Исчезающий градиент возникает, когда градиент..

Восхождение градиентного спуска
Интуиция, лежащая в основе градиентного спуска и его типов: пакетный градиентный спуск, стохастический градиентный спуск и мини-пакетный градиентный спуск. Для любого алгоритма контролируемого обучения мы всегда пытаемся найти функцию (f) предикторов, которая может наилучшим образом определить целевую переменную (y) и дать наименьшую ошибку (E). Функция стоимости (ничего, кроме ошибки) вычисляет ошибку между прогнозами и фактическими значениями. Простейшая функция стоимости, которую..

Простая нативная реализация линейной регрессии с градиентным спуском
В этом блоге я попытаюсь объяснить, как писать нативный код для линейной регрессии на Python. 1. Мы начнем с написания функции уравнения, учитывая одно значение x, его вес и точку пересечения. Y = B0 + B1 * X #Linear Equation def calculatey(x,B0,B1): y = B0 + B1 *x return y 2.Рассчитать ошибку/дельту для каждого экземпляра #Delta/error for Gradient Descent def caluculateError(y,y_pred): error = y_pred-y return error 3. Добавьте шаг градиентного спуска..