Публикации по теме 'gradient-descent'
Регуляризация L2: математика, стоящая за ней
Регуляризация L2, один из самых популярных методов в машинном обучении, представляет собой метод уменьшения дисперсии модели и увеличения смещения, чтобы сделать модель более универсальной.
Регуляризация L2 — это оценка MAP с гауссовыми априорными вероятностями. Из-за наложенного априора модель может хорошо обобщать данные, масштабируя веса в соответствии с их значимостью.
Регуляризованная целевая функция L2 и ее градиент определяются выражением
Из разложения в ряд Тейлора мы..
Функция стоимости и градиентный спуск в чистом Kotlin
В начале этого года я прослушал знаменитый курс машинного обучения на Coursera (Стэнфордского университета) и иногда мне было немного сложно одновременно учить октаву. Поскольку это не мой удобный язык программирования, я хотел поэкспериментировать с тем, что я изучил с помощью Java или Kotlin. Наконец, я решил использовать Kotlin, так как гораздо проще реализовать матрицу и ее функции, в основном из-за поддержки оператора overlord и инфиксной функции.
Итак, я собираюсь начать с более..
Понимание обратного распространения в машинном обучении
«Хорошие люди делают ошибки, учатся на них и в следующий раз стараются свести к минимуму эти ошибки, пока не перестанут совершаться новые». - (Цитата с обратным распространением)
Когда я изучал обратное распространение, я не смог найти ни одной важной статьи, которая могла бы дать мне полезные знания об обратном распространении. Поэтому я решил написать что-то, что может помочь другим понять обратное распространение. Для начала позвольте мне объяснить некоторые основные термины, чтобы..
Нормальное уравнение или градиентный спуск ? 🐱🐉🐱💻
Какой дорогой мир!!! Даже для реализации простой линейной регрессии нам нужно думать о стоимости. Да, Функция стоимости !! ❤
В этом блоге давайте разберемся, когда использовать нормальное уравнение и когда использовать градиентный спуск ?
Градиентный спуск:
Градиентный спуск — это алгоритм оптимизации, который можно использовать в любой задаче машинного обучения, он используется для нахождения значения параметра (коэффициента) функции, которое минимизирует стоимость. Проще..
Градиенты для глубоких нейронных сетей и анализа размерностей
Если вы читаете этот пост, вы, вероятно, уже знакомы с концепцией вычислительных графов (я планирую посвятить свой следующий пост реализации одного из них) и тем, как они упрощают применение цепного правила исчисления. даже для очень сложных функций, таких как глубокие нейронные сети. По моему опыту, когда дело доходит до фактического выполнения вычислений градиента с нуля, люди по-прежнему испытывают ненужные трудности при вычислении градиентов относительно простых выражений, таких как W..
Глубокое обучение: градиентный спуск обратного распространения и вывод цепных правил
Глубокое обучение: градиентный спуск обратного распространения и вывод цепных правил
Привет, я, виньеш, и это мой первый блог в нейронной сети по теме прямого и обратного распространения. Этот блог предназначен для тех, кто хочет математически визуализировать обратное распространение, цепное правило, градиентный спуск. Есть много онлайн-контента для обратного распространения, цепного правила и градиента. спуск объяснен, но здесь я пытаюсь объяснить обратное распространение, цепное..
Градиентный спуск в машинном обучении
Цель градиентного спуска
Градиентный спуск — это исключительно хорошо известный и распространенный алгоритм, используемый в различных алгоритмах машинного обучения, прежде всего в основе нейронных сетей. В этой статье постарайтесь разъяснить это подробно, но в простых терминах. Градиент в простых терминах подразумевает наклон или наклон поверхности. Таким образом, градиентный спуск в реальном смысле подразумевает спуск по склону с целью достижения абсолютного дна на этой..