Публикации по теме 'gradient-descent'


Машинное обучение: интуиция линейной регрессии и градиентного спуска
Нет ничего проще, чем линейная регрессия только с одной переменной. Но простейшая модель может быть очень полезна для понимания того, что происходит в процессе обучения модели. Эта записная книжка была сделана, когда я проходил курс Эндрю Нг по машинному обучению: репозиторий github . Данные Данные состоят из двух столбцов. Первый столбец — это население города (в 10 000), а второй столбец — прибыль фудтрака в этом городе (в 10 000 долларов). Отрицательное значение прибыли..

Градиентный спуск
Один из наиболее часто используемых математических алгоритмов в науке о данных и машинном обучении - это градиентный спуск. Хотя мы не программируем его вручную, это основной математический алгоритм для самых разных моделей. Это помогает нам обновлять наши параметры в зависимости от типа модели, которую мы запускаем, от простой линейной регрессии до нейронных сетей. Хотя различные методы оптимизации зависят от типа модели, которую вы используете, градиентный спуск может оптимизировать..

Градиентный спуск: в алгоритм
Объяснение одного из наиболее широко используемых и важных алгоритмов машинного обучения. Вы застряли на горе, окруженные густым туманом. Вы не подписывались на это. Вы просто хотели найти оптимальные значения регрессии, но это было слишком вычислительно неэффективно и дорого, потому что у вас было слишком много функций. Итак, вот вы волшебным образом. Быстрее всего можно спуститься с горы и выбраться из тумана, спустившись по крутому склону. Ты делаешь это. Вы находите сенбернар..

Градиентный спуск в Python
Когда вы решаетесь заняться машинным обучением, одним из фундаментальных аспектов вашего обучения будет понимание «градиентного спуска». Градиентный спуск - это основа алгоритма машинного обучения. В этой статье я попытаюсь объяснить основы градиентного спуска с использованием кода Python. Как только вы овладеете градиентным спуском, все станет более ясным и станет легче понять различные алгоритмы. По этой теме уже написано много, поэтому он не будет новаторским. Чтобы продолжить и..

Почему мы перемещаем наши веса в направлении, противоположном градиентам?
В этом посте я дам некоторое интуитивное представление о том, почему мы перемещаем наши веса в направлении, противоположном градиентам, для нахождения минимума функции с использованием градиентного спуска. давайте рассмотрим функцию потерь L (θ), тогда правило обновления θ в градиентном спуске дается приведенным ниже уравнением я расскажу о том, почему мы делаем минус в приведенном выше уравнении. Давайте рассмотрим изменение потерь Δθ, а скорость обучения равна α. поэтому наша..

Множественная линейная регрессия
Вступление Множественная линейная регрессия - это один из алгоритмов, используемых в машинном обучении для прогнозирования зависимых переменных с помощью независимых переменных. Это расширение линейной регрессии, в котором у нас есть одна зависимая и независимая переменная. Уравнение прямой имеет вид Но для большей реалистичности в реальных сценариях линейная регрессия используется редко, поскольку для прогнозирования необходимо несколько параметров или атрибутов. Таким образом,..

Градиентный спуск ясно объяснен
Понятное объяснение градиентного спуска Алгоритм, который ищет минимальное или максимальное значение и обновляет значение до тех пор, пока оно не сойдется к минимальному или максимальному значению. Мы увидим, как он обновляет соответствующие вещи. Итак, прежде чем перейти к градиентному спуску для регрессионной модели, ознакомьтесь с постом. Даже если вы знаете, как работает регрессионная модель, прочтите этот пост, он может помочь...