Публикации по теме 'bayesian-optimization'


Байесовская оптимизация: как откалибровать гиперпараметры вычислительно затратных моделей?
Хорошим выбором гиперпараметров модели машинного обучения может быть разница между очень точной моделью и моделью с плохими характеристиками. Следовательно, было предпринято много усилий, чтобы понять, как найти оптимальный гиперпараметр для данного сценария. В настоящее время поиск гиперпараметров обычно выполняется путем поиска по сетке или случайного поиска, но в некоторых сценариях использование этих стратегий невозможно. Например, предположим, что вы хотите найти наилучшую..

Простое объяснение поиска по сетке и байесовской оптимизации
Введение в настройку гиперпараметров и две самые популярные техники Содержание - "Введение" - Поиск по сетке против байесовской оптимизации Регрессия опорных векторов — как это работает Оценка производительности модели Нахождение оптимальных настроек гиперпараметров Поиск по сетке От грид-поиска к байесовской оптимизации -"Краткое содержание" -"Использованная литература" Небольшое замечание заранее: статья посвящена максимально интуитивному объяснению..

БАНАНЫ: новый метод поиска нейронной архитектуры
В этом посте мы обсуждаем новый современный алгоритм поиска нейронной архитектуры. Статья Arxiv: https://arxiv.org/abs/1910.11858 Исходный код: https : //www.github.com/naszilla/bananas Поиск нейронной архитектуры (NAS) - одна из самых популярных областей исследований в области машинного обучения, за последние несколько лет были опубликованы сотни статей (см. Этот веб-сайт ). При поиске нейронной архитектуры цель состоит в том, чтобы использовать алгоритм (иногда даже..

Как автоматизировать оптимизацию гиперпараметров
Руководство для новичков по использованию байесовской оптимизации с помощью Scikit-Optimize В парадигме машинного обучения и глубокого обучения параметры модели и гиперпараметры - это два часто используемых термина, где параметры определяют переменные конфигурации, которые являются внутренними для модели и значения которых могут быть оценены на основе данных обучения, а гиперпараметры определяют переменные конфигурации, которые являются внешними по отношению к модели и значения..

Настройка гиперпараметров с помощью Optuna
Используйте силу байесовской оптимизации Настройка гиперпараметров — один из самых важных шагов в рабочем процессе машинного обучения. Это процесс выбора набора оптимальных гиперпараметров, которые могут улучшить производительность модели. Что такое гиперпараметры? Гиперпараметры — это параметры, которые задаются перед началом обучения модели. Они не усваиваются моделью в процессе обучения. Методы настройки гиперпараметров Стоит рассказать о трех методах: Поиск по..

CatBoost: настройка байесовских гиперпараметров с перекрестной проверкой
Мы знаем, что для обучения модели, которая хорошо обобщается для невидимых данных, мы не можем переобучить модель для данных. Учитывая набор реальных данных, невозможно сказать, насколько хорошо модель будет обобщать, просто потому, что вы никогда не знаете, какие реальные данные могут быть брошены в модель в будущем. Новые данные могут не соответствовать распределению существующих данных. Итак, вы используете перекрестную проверку - делите данные на сгибы (скажем, на данный момент 5) и..

Поиск гиперпараметров: байесовская оптимизация
В предыдущем посте я рассмотрел три метода поиска гиперпараметров, а именно метод проб ошибок, поиск по сетке и случайный поиск. Этот пост будет посвящен четвертому методу - байесовской оптимизации. Прежде чем мы обсудим, как байесовская оптимизация используется для эффективного и действенного поиска гиперпараметров, нам необходимо кратко осветить основы байесовской статистики. 1 - Байесовская статистика Это математическая процедура, которая использует вероятности для решения..