Публикации по теме 'decision-tree'
Алгоритм дерева решений ID3 | Машинное обучение
В этом блоге мы подробно разбираем алгоритм дерева решений ID3 с примером набора данных.
Дерево решений
Дерево решений — это контролируемые алгоритмы машинного обучения, используемые как для постановки задачи регрессии, так и для классификации. Он использует представление дерева для решения проблемы, в которой каждый узел представляет атрибут, каждая ссылка представляет правило принятия решения, а каждый лист представляет собой результат (категориальное или непрерывное значение)...
Объяснение параметров дерева решений
Объяснение параметров дерева решений Sklearn
Дерево решений имеет структуру блок-схемы, каждая функция представлена внутренним узлом, данные разделены ветвями, а каждый конечный узел представляет результат. Это белый ящик, контролируемый алгоритм машинного обучения, означающий, что вся логика разбиения доступна.
В этой статье мы реализуем деревья решений из библиотеки sklearn и попытаемся понять их через принимаемые параметры.
Переобучение в деревьях решений
Переоснащение —..
Простые и сложные модели машинного обучения. Часть 2. Классификация
Вторая часть моего анализа сравнивает простые объяснимые модели машинного обучения со сложными необъяснимыми моделями.
Цель
Первый анализ, который я сделал, рассматривал сравнение различных алгоритмов машинного обучения (ML) для задачи регрессии, и его можно найти здесь: https://medium.datadriveninvestor.com/comparing-simple-explainable-machine-learning-models-to- сложные модели черного ящика для регрессии d8634c275f37
В этом анализе я сравню модели ML по проблеме классификации...
XGBoost (классификация) в Python
Введение
В предыдущих статьях мы представили Дерево решений , сравнили дерево решений с Случайным лесом , сравнили случайный лес с AdaBoost , и сравнил AdaBoost с Усиление градиента . Это было настоящее путешествие. К сожалению, всему есть конец.
Эта статья завершит серию алгоритмов дерева. В частности, сначала мы рассмотрим XGBoost , что означает Экстремальное повышение градиента. Как следует из названия, XGBoost — это экстремальная и продвинутая версия повышения..
SVM в Kernel Trick, деревья решений и временные ряды в ML
Общая идея приведенных выше алгоритмов ML
Трюк с ядром
Чтобы избежать проблемы логистической регрессии, способ получения нелинейных границ классификации. Проекция данных в многомерное пространство, т.е. добавление большего количества столбцов к данным.
Проецирование данных с прямой линии на нелинейную границу.
Нелинейные комбинации существующих столбцов. Проецирование ваших данных из более низкого в более высокое размерное пространство. Так что данные линейно разделимы...
АдаБуст объяснил
В этой серии я собираюсь рассмотреть ряд алгоритмов обучения на основе дерева. Прежде чем мы сможем погрузиться в XGBoost, LightGBM, CatBoost, нам нужно будет рассказать об основном методе AdaBoost.
В лесу деревьев, созданном с помощью алгоритма AdaBoost, деревья обычно состоят только из узла и двух листьев. Эти деревья также называют пнями из-за их короткой структуры. Пни не очень хороши в принятии решений, потому что они используют одну переменную для предсказания. Однако это не..
Самое простое руководство: дерево решений, случайный лес, повышение градиента и XGBoost
Каждый день нам приходится принимать множество решений, которые приводят нас к разным результатам. Если мы хотим быть здоровыми, мы могли бы бегать, а не смотреть Netflix. Если мы решим заняться бегом, мы можем бежать в одиночку, а не присоединяться к групповому забегу. Если мы надеемся найти мотивацию для бега в одиночку, это может быть марафон или просто попытка расслабиться. Это ДЕРЕВО РЕШЕНИЙ!
➤ Дерево решений : простая схема принятия решений.
Компьютер работает так же, как..