TL;DR
- Последовательное обучение — попытка последующей модели — правильно — ошибки — предыдущие модели
- Bias Variance Tradeoff — уменьшить и то, и другое — корректировка веса
- Взвешенная выборка — инициализация — равный вес — настройка — расстановка приоритетов — неправильно классифицированные экземпляры
- Несколько моделей
- Обучение на основе ошибок - обновляйте веса (последовательно) - более высокие ошибки получают более высокие веса
- построенная модель — знания из предыдущих моделей
Примеры: Adaboost, Gradient Boost, XGboost, Catboost, LightGBM — Hot.
Изображение стоит 376 слов
Если вам не хватает математики за этим, зайдите сюда: https://towardsdatascience.com/boosting-algorithms-explained-d38f56ef3f30