Публикации по теме 'gradient-descent'


Градиентный спуск с импульсом
Проблема с градиентным спуском заключается в том, что обновление веса в момент (t) определяется скоростью обучения и градиентом только в этот момент. Он не принимает во внимание предыдущие шаги, предпринятые при обходе пространства затрат. Это приводит к следующим проблемам. Градиент функции стоимости в седловых точках (плато) незначителен или равен нулю, что, в свою очередь, приводит к небольшим обновлениям веса или их отсутствию. Следовательно, сеть застаивается, и обучение..

Упрощенная линейная регрессия - обычный метод наименьших квадратов против градиентного спуска
Упрощенная линейная регрессия - обычный метод наименьших квадратов против градиентного спуска Что такое линейная регрессия? Линейная регрессия - это статистический метод определения взаимосвязи между независимыми и зависимыми переменными. Давайте возьмем простой набор данных, чтобы объяснить модель линейной регрессии. Почему мы называем их независимыми и зависимыми переменными? Если вы возьмете наш пример набора данных, столбцы «Годы опыта» будут независимыми..

Искусственные нейронные сети (часть 3) - функции потерь и затрат и градиентный спуск.
В этой части ИНС мы попытаемся узнать, что такое функция потерь и как она используется для расчета функции стоимости и, наконец, градиентного спуска и его роли в оптимизации. Функция потерь  – это метод оценки производительности модели путем вычисления разницы между фактическим значением и прогнозируемым значением. Обычно мы используем функцию среднеквадратичной ошибки или функцию ошибки логарифмической потери. Он измеряет, насколько хороша наша функция. Журнал потерь: L(p, y) =..

Логистическая регрессия (математика и интуиция, лежащие в основе логистической регрессии)
Узнайте все о логистической регрессии . Содержание: ∘ Введение: ∘ Линейная регрессия ∘ Логистическая регрессия ∘ Функция затрат: ∘ Алгоритм градиентного спуска: ∘ Реализация: ∘ Резюме: Введение: Логистическая регрессия - это алгоритм обучения с учителем, используемый для двоичной классификации . например (Верно или неверно, да или нет, 1 или 0). Его также можно использовать для мультиклассовой классификации . но для многоклассовой классификации..

Градиентный спуск
Градиентный спуск — очень общий алгоритм, способный находить оптимальные решения для широкого круга задач. Общая идея градиентного спуска заключается в итеративной настройке параметров для минимизации функции стоимости. Предположим, вы заблудились в горах в густом тумане; вы можете найти склон только под своей ногой. Хорошая стратегия состоит в том, чтобы идти по дну долины, спускаясь по склону в направлении самого крутого склона. Именно это и делает градиентный спуск: он измеряет..

Интуитивное понимание градиентного спуска
Интуитивное понимание градиентного спуска Машинное обучение — одна из самых мощных технологий современности. Методы оптимизации, такие как градиентный спуск, играют важную роль в машинном обучении. Базовое понимание линейной алгебры и исчисления требуется для понимания математики, лежащей в основе моделей машинного обучения. Целью любого метода машинного обучения, такого как регрессия, классификация и т. д., является выработка правила принятия решения. Чтобы определить это правило,..

Почему выпуклость - ключ к оптимизации
Машинное обучение Почему выпуклость - ключ к оптимизации Это просто с выпуклыми функциями стоимости Самое интересное, с чем вы впервые столкнетесь, когда начнете заниматься машинным обучением, - это алгоритм оптимизации, а точнее, градиентный спуск, который представляет собой итеративный алгоритм оптимизации первого порядка, используемый для минимизации функции затрат. Интуиция за градиентным спуском сводится к решению, которым может быть локальный минимум в окрестности или, в..