Публикации по теме 'gradient-descent'


Введение в машинное обучение с линейной регрессией: простой способ
Когда мы впервые изучаем машинное обучение, нам приходится изучать линейную регрессию , но иногда это может сбивать с толку. Если вы не знаете, что такое Машинное обучение является? Вот ответ на вопрос: Машинное обучение - это метод, позволяющий компьютерам «учиться» с данными. Вернемся к линейной регрессии. Линейная регрессия - это очень простой подход к контролируемому обучению для прогнозирования реальных значений. Например , если мы хотим предсказать вес птицы по..

Почему выпуклая функция?
Градиентный спуск 101: Основы градиентного спуска Предполагая, что у вас есть предварительные знания о функции потерь и функции затрат и о разнице между ними. Вы должны знать, что когда вы обучаете свою модель машинного обучения, мы пытаемся минимизировать стоимость, и вы делаете это с помощью градиентного спуска. «Машинное обучение по своей сути — это проблема оптимизации» Кажется, я где-то на Quora читал эту строчку. Любая функция (с любым количеством параметров/переменных), если..

Глубокое погружение в логистическую регрессию
Предупреждение для читателей : держитесь на своих местах, ребята, так как это будет длинная и всеобъемлющая статья, охватывающая все мельчайшие детали логистической регрессии. Сначала мы обсудим все необходимые ингредиенты, а затем посмотрим, как эти ингредиенты объединяются, чтобы подготовить потрясающий алгоритм. Итак, не теряя времени, давайте начнем с нашей статьи. Когда использовать логистическую регрессию? Вы все, должно быть, слышали о классических проблемах машинного..

Стратифицированное разделение сгруппированных наборов данных с помощью оптимизации
В этой статье объясняется, как выполнить стратифицированное разделение сгруппированного набора данных на обучающие и проверочные наборы. Одним из наиболее частых шагов в конвейере машинного обучения является разделение данных на наборы для обучения и проверки. Это один из необходимых навыков, которым должны овладеть все практикующие, прежде чем решать любую проблему. Процесс разделения требует случайного перемешивания данных с последующим разделением с использованием заранее..

Популярные алгоритмы оптимизации в машинном обучении — Краткое пошаговое руководство
Оптимизаторами в контексте машинного обучения можно назвать алгоритмы, которые используются для изменения таких параметров, как веса, скорость обучения или другие гиперпараметры в целом, чтобы уменьшить потери в модели при обучении. По сути, каждый раз, когда мы пытаемся подобрать модель, используя доступные обучающие данные, мы пытаемся решить алгоритм оптимизации. Еще одна причина, побудившая меня написать эту статью, — интервью, данное одной фирме некоторое время назад. Интервью..

№6 МЛ…. мини-ура!!!
9.8.17 Среда Великий день для человечества. Шутя. Отличный день для меня :). Спустя неделю код для Mini Batch GD наконец-то здесь!!!! Мне потребовалось время, чтобы переварить тот факт, что, просто немного подправив код Batch GD, можно было получить Mini Batch GD! После этого код для него был готов в течение 10 минут :). Одна неделя ушла на другие дела, к счастью, сегодня результат был отличным. Код для обоих методов будет загружен на Github завтра. О выводе: Для серийного GD:..

Градиентный спуск: как учатся модели машинного обучения
Часть 2 из серии «Начало работы с глубоким обучением» Что мы знаем до сих пор В прошлом посте мы представили концепцию машинного обучения и привели 2 примера проблем, которые мотивировали использование таких моделей: Определить, какое животное изображено на данной картинке (задача классификации); Определите цену подержанного автомобиля на основе его марки, даты производства, пробега и т. Д. (Проблема регрессии). В более общем плане в этих задачах мы хотим найти связь..