Публикации по теме 'hyperparameter-tuning'


Введение в концепции машинного обучения для начинающих
Привет:) Вы начинаете с машинного обучения и не знаете, с чего начать и какие ключевые понятия в машинном обучении вам нужно понять как новичку? Вам не нужно беспокоиться. Это моя первая статья о введении в машинное обучение с использованием Python. Я хотел поделиться некоторыми ключевыми понятиями, которые должен знать новичок. В этой статье мы обсудим навыки, которые вам необходимы для начала работы с машинным обучением, и основные концепции машинного обучения. Навыки,..

Как настроить оптимизацию гиперпараметров
В нашем стремлении получить более эффективные модели оптимизация гиперпараметров стала одной из различных стратегий для достижения этой цели. Это особенно актуально для более сложных моделей, таких как XGBoost, которые имеют десятки параметров, и многие из них могут быть изменены. Для этого многие из нас используют какую-либо автоматизацию настройки параметров, т.е. Модули GridSearchCV или RamdomizedSearchCV из Scikit Learn. Однако при установке оценочной метрики up , списка..

Распознавание изображений с помощью Tensorflow с использованием оптимизации гиперпараметров
Используя Tensorflow, мы можем реализовать простой код, который анализирует и классифицирует ряд животных, которых мы собираемся ему ввести, с оптимизацией гиперпараметров. Введение В области компьютерного зрения сверточные нейронные сети (CNN) оказались мощным инструментом для задач классификации изображений. Одним из популярных типов архитектуры CNN является слой Conv2D, который может изучать пространственные иерархии функций из входных данных. В этой статье мы рассмотрим, как..

Разборка XGBoost (Часть 2)
Добро пожаловать во вторую часть разбора XGBoost. В предыдущем посте было кратко объяснено, что такое бустинг, в частности, бустинг градиента, и были рассмотрены общие математические шаги, связанные с оптимизацией функции потерь, используемой в XGBoost. Если вам нужно собрать много математики, не волнуйтесь, мы просто примем эти уравнения и объясним, как эта математика преобразуется в процедуру построения модели. Сядьте поудобнее и читайте вместе! В части 1 мы выяснили, как рассчитать..

Как № 3 : оптимизация дерева для XGBoost.
«Точность не есть истина» — Анри Матисс Откуда мы знаем, что XGBoost тренируется правильно? Есть ли способ визуализировать, что он забивает во время обучения? Короткий ответ: да. Обычно визуализация точности обучения и теста, AUC или f-показателей во время обучения/тестирования остается на усмотрение нейронных сетей или Tensorflow. Это ожидаемо, и знание количества итераций (эпох) очень полезно. Мы можем сказать, нуждается ли наша модель в большем обучении или она по-прежнему..

k-кратная перекрестная проверка объяснена простым языком
Для оценки производительности модели и настройки гиперпараметров k-кратная перекрестная проверка - одна из самых популярных стратегий, широко используемых специалистами по анализу данных. Это стратегия разделения данных , позволяющая эффективно использовать свой набор данных для построения более обобщенной модели . Основная цель любого вида машинного обучения - разработать более обобщенную модель, которая может хорошо работать с невидимыми данными . Можно построить..

Настройка гиперпараметров для моделей Keras с библиотекой Scikit-Learn
Keras - это библиотека нейронных сетей для языка программирования Python, способная работать со многими инструментами глубокого обучения, такими как Theano, R или TensorFlow, и позволяющая выполнять быструю итерацию для экспериментов или создания прототипов нейронных сетей. Создаете ли вы прототип модели нейронной сети в Keras, чтобы понять, как она будет выполнять требуемую задачу, или точно настраиваете модель, которую вы построили и протестировали, существует множество параметров,..