Публикации по теме 'gradient-descent'
Введение в машинное обучение с линейной регрессией: простой способ
Когда мы впервые изучаем машинное обучение, нам приходится изучать линейную регрессию , но иногда это может сбивать с толку. Если вы не знаете, что такое Машинное обучение является? Вот ответ на вопрос:
Машинное обучение - это метод, позволяющий компьютерам «учиться» с данными.
Вернемся к линейной регрессии. Линейная регрессия - это очень простой подход к контролируемому обучению для прогнозирования реальных значений.
Например , если мы хотим предсказать вес птицы по..
Почему выпуклая функция?
Градиентный спуск 101: Основы градиентного спуска
Предполагая, что у вас есть предварительные знания о функции потерь и функции затрат и о разнице между ними. Вы должны знать, что когда вы обучаете свою модель машинного обучения, мы пытаемся минимизировать стоимость, и вы делаете это с помощью градиентного спуска.
«Машинное обучение по своей сути — это проблема оптимизации»
Кажется, я где-то на Quora читал эту строчку. Любая функция (с любым количеством параметров/переменных), если..
Глубокое погружение в логистическую регрессию
Предупреждение для читателей : держитесь на своих местах, ребята, так как это будет длинная и всеобъемлющая статья, охватывающая все мельчайшие детали логистической регрессии.
Сначала мы обсудим все необходимые ингредиенты, а затем посмотрим, как эти ингредиенты объединяются, чтобы подготовить потрясающий алгоритм.
Итак, не теряя времени, давайте начнем с нашей статьи.
Когда использовать логистическую регрессию?
Вы все, должно быть, слышали о классических проблемах машинного..
Стратифицированное разделение сгруппированных наборов данных с помощью оптимизации
В этой статье объясняется, как выполнить стратифицированное разделение сгруппированного набора данных на обучающие и проверочные наборы.
Одним из наиболее частых шагов в конвейере машинного обучения является разделение данных на наборы для обучения и проверки. Это один из необходимых навыков, которым должны овладеть все практикующие, прежде чем решать любую проблему. Процесс разделения требует случайного перемешивания данных с последующим разделением с использованием заранее..
Популярные алгоритмы оптимизации в машинном обучении — Краткое пошаговое руководство
Оптимизаторами в контексте машинного обучения можно назвать алгоритмы, которые используются для изменения таких параметров, как веса, скорость обучения или другие гиперпараметры в целом, чтобы уменьшить потери в модели при обучении. По сути, каждый раз, когда мы пытаемся подобрать модель, используя доступные обучающие данные, мы пытаемся решить алгоритм оптимизации.
Еще одна причина, побудившая меня написать эту статью, — интервью, данное одной фирме некоторое время назад. Интервью..
№6 МЛ…. мини-ура!!!
9.8.17 Среда
Великий день для человечества. Шутя. Отличный день для меня :). Спустя неделю код для Mini Batch GD наконец-то здесь!!!!
Мне потребовалось время, чтобы переварить тот факт, что, просто немного подправив код Batch GD, можно было получить Mini Batch GD! После этого код для него был готов в течение 10 минут :).
Одна неделя ушла на другие дела, к счастью, сегодня результат был отличным.
Код для обоих методов будет загружен на Github завтра.
О выводе:
Для серийного GD:..
Градиентный спуск: как учатся модели машинного обучения
Часть 2 из серии «Начало работы с глубоким обучением»
Что мы знаем до сих пор
В прошлом посте мы представили концепцию машинного обучения и привели 2 примера проблем, которые мотивировали использование таких моделей:
Определить, какое животное изображено на данной картинке (задача классификации); Определите цену подержанного автомобиля на основе его марки, даты производства, пробега и т. Д. (Проблема регрессии).
В более общем плане в этих задачах мы хотим найти связь..