Публикации по теме 'hyperparameter-tuning'


Создание мощных моделей с помощью простоты neptune.ai: подробное руководство
В современном мире найти решение проблемы легко, но найти оптимальное решение сложнее. То же самое относится и к области науки о данных: существует множество алгоритмов для выполнения задачи, но поиск правильного алгоритма с правильным набором параметров, который подходит вашим данным, является основной проблемой, с которой сталкивается каждый специалист по данным. Это требует большого количества экспериментов с различными алгоритмами, тонкой настройки параметров модели, мониторинга..

Как визуализировать проект машинного обучения с помощью Wandb
Я покажу, как я обучил набор данных TMNIST Alphabet (94 символа) с помощью Cnn и как я использовал настройку гиперпараметров с разверткой Wandb. Я использовал набор данных Typography MNIST ( TMNIST ) с 94 символами и более 281 000 изображений. В этом наборе данных было несколько пустых изображений, и мы очистили набор данных, в конце в нем осталось 274 093 изображения. Я написал свой код в Google Colab, который прост и удобен в использовании. Сначала я загрузил CSV-файл на..

Модели машинного обучения на диете данных
Как размер тренировочного набора влияет на производительность Если вы потратили какое-то время на обучение моделей машинного обучения на больших наборах данных, скорее всего, вы столкнулись с некоторыми аппаратными ограничениями и были вынуждены отрезать часть своих данных. В этой записи блога мы изучаем влияние обучения моделей машинного обучения на (случайный) выбор набора данных и показываем, что более шести наборов данных разного размера можно сохранить не менее 95 %..

Тестирование большего количества гиперпараметров с меньшим количеством кода в машинном обучении
Допустим, вы выполнили предварительную обработку данных, разработку функций и все такое, и вы готовы построить и обучить свою модель — давайте использовать алгоритм K ближайших соседей в качестве примера здесь: model = KNeighborsClassifier(n_neighbors=10, algorithm="ball_tree") model.fit(x_train, y_train) model.score(x_test, y_test) Обратите внимание на параметры n_neighbors=10 и algorithm="ball_tree" , которые входят в модель KNeighborsClassifier. Они известны как..

Байесовская оптимизация: как откалибровать гиперпараметры вычислительно затратных моделей?
Хорошим выбором гиперпараметров модели машинного обучения может быть разница между очень точной моделью и моделью с плохими характеристиками. Следовательно, было предпринято много усилий, чтобы понять, как найти оптимальный гиперпараметр для данного сценария. В настоящее время поиск гиперпараметров обычно выполняется путем поиска по сетке или случайного поиска, но в некоторых сценариях использование этих стратегий невозможно. Например, предположим, что вы хотите найти наилучшую..

Машинное обучение: способы улучшить цикл разработки модели
Искусственный интеллект/прогностический интеллект с началом развития машинного и глубокого обучения сделал их модными словечками десятилетия. Организации во множестве отраслей, от медицины, онлайн-маркетинга, розничной торговли, образовательных технологий и т. д., используют машинное обучение, чтобы оставаться впереди своих конкурентов на каждом этапе. Прогнозирование вероятности того, что человек снова будет страдать от того же недуга, является одним из примеров прогностического..

Простое объяснение поиска по сетке и байесовской оптимизации
Введение в настройку гиперпараметров и две самые популярные техники Содержание - "Введение" - Поиск по сетке против байесовской оптимизации Регрессия опорных векторов — как это работает Оценка производительности модели Нахождение оптимальных настроек гиперпараметров Поиск по сетке От грид-поиска к байесовской оптимизации -"Краткое содержание" -"Использованная литература" Небольшое замечание заранее: статья посвящена максимально интуитивному объяснению..