Публикации по теме 'gradient-descent'


Машины для глубокого обучения, нейроэволюции и экстремального обучения
В нашем предыдущем руководстве мы представили Deep Learning (DL) и попытались понять искусственные нейронные сети (ANN) более подробно: в частности, уделяя особое внимание нейронным сетям с глубокой прямой связью (FFNN), также известным как многослойные персептроны (MLP). Мы закончили обучением рисовать простую картинку. В этом втором руководстве по глубокому обучению мы постараемся лучше понять, как изучают нейронные сети. Предположим, что все проблемы, независимо от их..

Градиентный спуск с импульсом
Градиентный спуск с импульсом всегда будет работать намного быстрее, чем алгоритм Standard Gradient Descent. Основная идея градиентного спуска с импульсом состоит в том, чтобы вычислить экспоненциально взвешенное среднее ваших градиентов, а затем использовать этот градиент для обновления ваших весов. Он работает быстрее, чем обычный алгоритм градиентного спуска. Как это работает? Рассмотрим пример, в котором мы пытаемся оптимизировать функцию стоимости, которая имеет контуры, подобные..

Спускайтесь осторожно по уклону!
В машинном обучении градиентный спуск — это алгоритм оптимизации, используемый для нахождения значений параметров (θ) функции (f), которая минимизирует функцию стоимости (J(θ)). Прежде чем перейти к алгоритму градиентного спуска, давайте рассмотрим некоторые основные термины, упомянутые в приведенном выше определении. Во-первых, давайте попробуем разобраться в таких терминах, как производная первого порядка, дифференцируемая функция, градиент, выпуклость и глобальный минимум ...

Линейная регрессия против логистической регрессии: в чем разница?
Различия с точки зрения функций стоимости, обычного наименьшего квадрата (OLS), градиентного спуска (GD) и оценки максимального правдоподобия (MLE). В этой статье я расскажу о дорожной карте разработки статистических моделей. В частности, мы поговорим о том, чем разработка линейной регрессии отличается от логистической регрессии . Мы также обсудим, почему некоторые методы работают в одной модели, но не работают в другой модели. Ниже приводится обзор этой дорожной карты. Шаг 1 ...

Введение в алгоритм градиентного спуска
Представьте, что вы стоите на вершине горы с завязанными глазами. Вас просят спуститься с горы и найти долину. Что бы вы сделали? Поскольку вы не знаете, куда и в каком направлении вам нужно двигаться, чтобы достичь земли, вы, вероятно, сделаете маленькие шажки в каком-то направлении более высокого наклона и попытаетесь выяснить, ведет ли этот путь к месту назначения. Вы можете повторять этот процесс, пока не достигнете земли. Именно так работает алгоритм градиентного спуска...

Введение в градиентную эпизодическую память
Введение Основное внимание в этой статье уделяется пониманию модели градиентной эпизодической памяти (GEM), предложенной Lopez-Paz et al. Мы сосредоточимся на понимании того, как модель решает проблему катастрофического забывания, как создать набор данных, который ближе к реальному сценарию, и как определить точность модели. Мы также внимательно изучаем функции, которые авторы использовали для понимания деталей реализации модели. Обзор модели Лопес-Пас и др. . предложил модель,..

Просто еще один пост о выпуске
Этот очень простой градиентный спуск Если вы начнете любой курс глубокого обучения, вы, вероятно, услышите что-то вроде: Читателю интересно использовать цепное правило для получения градиента, но оно оказывается чрезвычайно простым… (см. примечания cs231n ). Или вот так (см. Лекцию Яна Лекуна ): Вы можете сделать backprop для всех юнитов, это очень просто. В питоне это заняло бы полстраницы. Это очень просто. Это невероятно просто. Почему людям потребовалось так много..