Публикации по теме 'gradient-descent'


Код для градиентного спуска
Здесь мы увидим, как градиентный спуск применяется к линейной и логистической регрессии. import matplotlib.pyplot as plot import random import numpy as np # Plotting the loss function plot.title('Loss function with iterations') plot.xlabel('iterations') plot.ylabel('loss') plot.grid(True, which='both') plot.axhline(y=0, color='k') plot.ylim(0, 10) xaxis=np.linspace(0,iterations,iterations, endpoint=True) Начнем с импорта необходимых библиотек, смотрим matplotlib.pyplot здесь ...

День 4 из 100DaysofML
Веса и смещения. Поэтому я решил сосредоточиться на теме, которая является фундаментальной для каждой модели, обученной машинному обучению. Я попытаюсь объяснить это на примере, который я использовал ранее для объяснения концепции. Итак, давайте рассмотрим новорожденного ребенка, который учится ходить. С первой попытки может не получиться совсем, поэтому родители малыша могут помочь ему, протянув руку и помогая ребенку встать, чтобы, может быть, с четвертой или пятой попытки, которую..

Исчезающие / взрывающиеся градиенты в глубоких нейронных сетях и их решение
Одна из проблем обучения нейронных сетей, особенно очень глубоких нейронных сетей, - это исчезновение данных или даже взрывные градиенты. Это означает, что когда вы тренируете очень глубокую сеть, ваши производные или наклоны могут иногда становиться либо очень-очень большими, либо очень-очень маленькими, может быть, даже экспоненциально малыми, и это значительно усложняет обучение. Для достижения конвергенции может потребоваться больше времени. Здесь мы увидим, что на самом деле..

Градиентный спуск: на языке непрофессионала
Градиентный спуск за 5 минут | Навстречу AI Градиентный спуск: на языке непрофессионала Представляем самый популярный и наиболее часто используемый метод оптимизации за 5 минут Всякий раз, когда мы говорим о машинном обучении, мы часто слышим слово, которое нужно знать и о котором размышляют, - это слово градиентный спуск . Что это? В Интернете есть множество руководств, чтобы узнать и понять больше по этой теме. Некоторые из них легко понять, вместе с очень полезными..

Оптимизаторы градиентного спуска
Оптимизаторы градиентного спуска Понимание SGD, Momentum, Nesterov Momentum, AdaGrad, RMSprop, AdaDelta и ADAM В машинном обучении мы стремимся минимизировать разницу между прогнозируемыми значениями и значениями меток. Другими словами, мы хотим минимизировать функции потерь. Если функция потерь представляет собой простую параболу с одним параметром, у нее есть один минимум, и мы даже можем решить ее с помощью ручки и бумаги. Но у реальной функции потерь обычно есть..

День 2: Несколько функций
Отказ от ответственности Это моя попытка расширить свои знания об искусственном интеллекте, еженедельно делясь тем, что я узнаю, используя различные онлайн-ресурсы. Я всегда буду размещать соответствующие ссылки, которые я использую, чтобы перенаправить вас к людям, которые знают об ML/AI гораздо больше, чем я сейчас. В случае, если вы хотите, чтобы я что-то уточнил или я что-то неправильно истолковал и допустил ошибку в объяснении, пожалуйста, оставьте комментарий! Это только..

Руководство по градиентному спуску для новичков
В каждой нейронной сети есть множество весов и смещений, которые связывают нейроны между разными слоями. При правильных весах и смещениях нейронная сеть может хорошо выполнять свою работу. При обучении нейронной сети мы пытаемся определить наилучшие веса и смещения, чтобы улучшить производительность нейронной сети. Этот процесс называется «обучением». Сначала мы просто дадим сети набор случайных весов и смещений. Это, конечно, означает, что сеть будет не очень точной. Например, сеть,..