Публикации по теме 'hyperparameter-tuning'


Поиск по сетке против случайного поиска
В этой статье мы сосредоточимся на двух методах настройки гиперпараметров - поиске по сетке и случайном поиске и определим, какой из них лучше. Сначала давайте узнаем, Что такое гиперпараметры ? Гиперпараметры - это свойства модели, которые «фиксируются» еще до того, как модель будет обучена или протестирована на данных. Например: в случае случайного леса гиперпараметры включают количество деревьев решений в лесу, для нейронной сети - скорость обучения, количество скрытых слоев,..

CMA-ES с маржей: новый вариант CMA-ES для оптимизации черного ящика со смешанными целыми числами, представленный в…
В этой статье представлена ​​CMA-ES с Margin, которая реализована в Optuna v3.1.0. CMA-ES с маржой [1] — это вариант CMA-ES для оптимизации смешанного целочисленного черного ящика (MI-BBO), где пространство поиска содержит как непрерывные, так и целочисленные переменные, такие как оптимизация гиперпараметров. В этой статье для объяснения CMA-ES с маржей упоминается следующее: Внедрение оригинального CMA-ES. Проблемы адаптации CMA-ES к MI-BBO. Основные идеи CMA-ES с Margin...

Настройка гиперпараметров с помощью Python: часть 1
Основные понятия, которые необходимо знать перед выполнением экспериментов по настройке гиперпараметров Настройка гиперпараметров — это процесс, в ходе которого мы ищем наилучший набор гиперпараметров модели машинного обучения из всех наборов-кандидатов. Нас интересует процесс оптимизации технических показателей. Цель настройки гиперпараметров состоит в том, чтобы просто получить максимальную оценку в наборе проверки, не вызывая проблемы переобучения. Настройка гиперпараметров —..

Правильное использование optuna со sklearn — Часть 3
Сокращение бесперспективных испытаний, чтобы разумно ускорить оптимизацию Введение В предыдущих двух статьях мы рассмотрели, как использовать optuna для замены классов GridSearchCV и RandomizedSearchCV sklearn. Эта статья будет следовать установленным там соглашениям, поэтому я рекомендую прочитать их, если вы этого не сделали. Однако оптимизация гиперпараметров по-прежнему является чрезвычайно дорогостоящей процедурой, поскольку каждая кратность перекрестной проверки требует..

Классификатор случайного леса
Здесь мы обсудили технику классификатора случайного леса с глубокой интуицией и реализацией различных гиперпараметров на языке Python. Подобно реальному лесу, состоящему из тысяч деревьев, классификатор случайного леса также создается путем объединения нескольких деревьев решений (а не тысяч). Случайный лес - это контролируемый алгоритм машинного обучения. «Лес», который он строит, представляет собой ансамбль деревьев решений, обычно обучаемых с помощью метода « упаковки »...

Внедрение логистической регрессии и настройки гиперпараметров в Microsoft Azure
В этой статье приведены подробные пошаговые инструкции о том, как настроить эксперимент по машинному обучению в студии машинного обучения Microsoft Azure, запустить удаленный вычислительный ресурс и оптимизировать модель с помощью обучения гиперпараметрам. Если вы заинтересованы в запуске собственных моделей машинного обучения на платформе Microsoft Azure, смело выполняйте приведенные ниже шаги и получайте удовольствие! Код адаптирован из фантастического материала от Microsoft Learn..

Как отслеживать гиперпараметры моделей машинного обучения?
Эта статья была изначально написана Камилем Качмареком и размещена в блоге Neptune . Алгоритмы машинного обучения настраиваются с помощью нескольких датчиков, называемых гиперпараметрами. Последние модели глубокого обучения настраиваются с помощью десятков гиперпараметров, которые вместе с параметрами увеличения данных и параметрами процедуры обучения создают довольно сложное пространство. В области обучения с подкреплением вы также должны подсчитывать параметры среды...