TL;DR

  • Последовательное обучение — попытка последующей модели — правильно — ошибки — предыдущие модели
  • Bias Variance Tradeoff — уменьшить и то, и другое — корректировка веса
  • Взвешенная выборка — инициализация — равный вес — настройка — расстановка приоритетов — неправильно классифицированные экземпляры
  • Несколько моделей
  • Обучение на основе ошибок - обновляйте веса (последовательно) - более высокие ошибки получают более высокие веса
  • построенная модель — знания из предыдущих моделей

Примеры: Adaboost, Gradient Boost, XGboost, Catboost, LightGBM — Hot.

Изображение стоит 376 слов

Если вам не хватает математики за этим, зайдите сюда: https://towardsdatascience.com/boosting-algorithms-explained-d38f56ef3f30