Публикации по теме 'gradient-descent'


Градиентный спуск: объяснение!
Градиентный спуск — популярная и эффективная стратегия оптимизации, используемая при обучении моделей на основе данных. Популярность градиентного спуска связана с тем, что его можно комбинировать с любым алгоритмом. Читайте дальше, чтобы узнать больше! Прежде чем мы перейдем к градиентному спуску в качестве стратегии оптимизации, нам нужно рассмотреть, что такое градиент. Возможно, вы помните термин «градиент» из исчисления, описывающий наклон функции. Для наших целей..

Азбука глубокого обучения (часть 3 из 5)
Руководство для начинающих по глубокому обучению Ранее на … До сих пор мы говорили о биологических и искусственных нейронах, персептроне и обо всем, что происходит внутри искусственного нейрона. В этой главе мы поговорим о том, как обучается искусственная нейронная сеть.

Градиентный спуск: краткое введение в оптимизацию
Понимание основ градиентного спуска Градиентный спуск — это алгоритм оптимизации, обычно используемый в машинном обучении для минимизации функции стоимости. В контексте машинного обучения функция стоимости часто представляет собой среднеквадратичную ошибку, которая измеряет среднеквадратичную разницу между прогнозируемыми и фактическими значениями зависимой переменной. Градиентный спуск итеративно корректирует параметры модели или системы, чтобы найти минимум функции стоимости...

Градиентный спуск (GD)
Градиентный спуск (GD) — это алгоритм оптимизации, ориентированный на поиск локального минимума/максимума определенной функции. Это делается итеративно, начиная со случайной точки, а затем делая шаги в направлении отрицательного градиента функции — как показано на диаграмме ниже ( https://regenerativetoday.com/machine-learning-gradient- спуск-концепт/ ). Более того, градиентный спуск работает не для каждой функции. Есть два требования к функции, чтобы GD работал: функция должна быть..

Реализуйте градиентный спуск с помощью модели линейной регрессии
Прогнозирование заработной платы на основе многолетнего опыта Введение В этой статье показано, как менее чем за 5 минут построить простую модель линейной регрессии с градиентным спуском. Цель состоит в том, чтобы предсказать зависимую переменную (y) на основе независимой переменной (X). Мы хотим спрогнозировать заработную плату с учетом многолетнего опыта. Для этого мы объясним несколько концепций (градиентный спуск, линейная модель) и напишем 4 функции: Функция..

Линейная регрессия с нуля и отказ от встроенных функций
За последние несколько месяцев я прошел довольно много курсов по машинному обучению (самых популярных) — «Машинное обучение» Эндрю Нг и первые три курса «Специализация глубокого обучения». Пока я думал, стоит ли переходить на сверточные нейронные сети или нет, я подумал, что было бы лучше дать себе шанс реализовать то, что я узнал до сих пор. Это помогло бы мне укрепить мои основы, и это определенно помогло бы мне в моем карьерном росте. Теперь я успешно реализовал две модели машинного..

Искусственные нейронные сети, часть 2 - Понимание градиентного спуска (без математики)
Искусственные нейронные сети, часть 2 - Понимание градиентного спуска (без математики) В статье 1 этой серии мы рассмотрели основы искусственных нейронных сетей, связанные с ними компоненты, такие как узлы, веса, смещение, функции активации и т. Д. Эта статья посвящена другой важной теме. Я объясню концепцию градиентного спуска , не прибегая к математике. Основным мотивом градиентного спуска является обновление весов и смещений для достижения точки, в которой значение функции..