Публикации по теме 'pruning'


Основы машинного обучения (часть 13): деревья решений или классификации
Далее мы собираемся рассмотреть довольно отличный от представленных до сих пор подход к машинному обучению, в котором используется одна из наиболее распространенных и важных структур данных — двоичное дерево. Как правило, вычислительные затраты на создание дерева довольно низкие, но стоимость его использования еще ниже, O(log m), где m — количество узлов. Это важно для машинного обучения, так как запросы к обученной модели должны быть максимально быстрыми, поскольку это происходит чаще, и..

Состояние лотереи
Примечания на стороне - Лукас Галке В этом выпуске мы представляем вам статью, написанную членом команды MTank , в которой исследуются методы снижения затрат на обучение нейронной сети. Определив силу обучения подсетей на ранних этапах обучения, т. Е. выбрав выигрышную подсеть , мы потенциально можем снизить затраты на вычисления для современных исследователей и практиков глубокого обучения. В дополнение к нашим сериализованным блогам, ' AI Distillery и Cups to Consciousness..

Урок 8 — Машинное обучение: интуиция деревьев решений
Дерево решений представляет собой структуру, подобную блок-схеме, в которой каждый внутренний узел представляет решение, основанное на входном признаке, каждая ветвь представляет собой результат решения, а каждый конечный узел представляет собой метку класса или прогнозируемое значение. Решения принимаются путем рекурсивного разбиения набора данных на основе определенного значения функции или условия, что приводит к древовидной структуре. Построение дерева решений: Чтобы построить..

Обрезка для успеха
Обрезка - это более старая концепция в области глубокого обучения, восходящая к статье Яна Лекуна 1990 года Оптимальное повреждение мозга . В последнее время к нему возобновился интерес, и он становится все более важным инструментом для специалистов по анализу данных. Возможность развертывания значительно меньших и более быстрых моделей привлекла большую часть внимания, при этом минимально влияя (а в некоторых случаях улучшая) такие показатели, как точность. Отсечение - это процесс..

Вопросы по теме 'pruning'

альфа-бета-обрезка в python
В алгоритме альфа-бета-обрезки у меня есть класс, в котором определена функция def getAction(self,gamestate). Я сделал еще 2 функции в def getAction Нравиться: class BAC: def you(self,gamestate): def me(gamestate,depth,alpha, beta):...
2064 просмотров
schedule 21.12.2022

как работает перекрестная проверка для этих двух деревьев?
У меня есть 1 дерево (ID3 или J48) в weka. в нем всего 25 тренировочных наборов. и он учится со 100% точностью. Я думаю, что это слишком много для точности тренировочного набора. как я могу понять, есть ли у него проблема с переоснащением или нет?...
62 просмотров

Восстановить определенные пустые коммиты после перезаписи истории с помощью prune-empty
Я переписал историю git с помощью filter-branch и --prune-empty. Теперь мне нужно восстановить некоторые коммиты с конкретным сообщением. Могу ли я сделать это? Я не запускаю git reflog или git gc
49 просмотров
schedule 11.01.2023

Что делает шаг обрезки XGBoost?
Когда я использую XGBoost для подгонки модели, он обычно показывает список сообщений вроде «updater_prune.cc:74: завершение обрезки дерева, 1 корень, 6 дополнительных узлов, 0 удаленных узлов, max_depth=5». Интересно, как XGBoost выполняет обрезку...
3433 просмотров
schedule 17.09.2022

После обрезки деревьев решений с помощью python
Я пытаюсь опубликовать сокращение своего дерева решений в соответствии с некоторым условием, которое является более сложным, чем встроенные критерии сокращения размера выборки и сложности затрат, например. требующий минимального размера выборки,...
476 просмотров

rpart количество расщеплений
Используя printcp, я получил вывод, похожий на следующий (это только часть): CP nsplit rel error xerror xstd 1 3.254666e-01 0 1.0000000 1.0000000 0.003976889 2 5.395058e-02 1 0.6745334 0.6745334 0.003567289 3...
126 просмотров
schedule 27.09.2022