Всякий раз, когда мы решаем купить мобильный телефон или ноутбук, мы спрашиваем об этом продукте по-разному. мы увидим каждый обзор этого продукта. Мы учитываем рейтинги производительности, батареи, дисплея и т. Д. После всех соображений мы примем решение о покупке мобильного телефона. Итак, здесь мы используем ансамблевое обучение. Здесь мы обобщили все отзывы о продукте и приняли результирующее решение.

Ансамблевое обучение — это метод машинного обучения, который объединяет прогнозы нескольких моделей для повышения общей производительности системы.

Идея ансамблевого обучения заключается в том, что объединение прогнозов различных моделей может обеспечить более надежный и точный прогноз, чем использование любой отдельной модели. Таким образом, он преодолевает ограничения, присущие одной модели.

Что входит в БЭГгинг?

Например, чтобы узнать, хороший продукт или плохой, они проводят опрос. Они будут проводить опрос среди N выборок вместо одной выборки/человека. Бэггинг — один из лучших способов уменьшить дисперсию, избежать переоснащения и повысить точность. Это также называется методом агрегации Bootstrap.

Техника агрегирования Bootstrap

Начальная загрузка — это метод повторной выборки, в котором используется случайная выборка с REPLACEMENT. Прогнозы моделей объединяются, чтобы сделать окончательный комбинированный прогноз на основе таких методов, как голосование большинством, среднее значение и т. д.

Он работает в процессе повышения Parellely.

Примеры алгоритмов упаковки:

  • Алгоритм случайного леса
  • Алгоритм дополнительных деревьев
  • Классификатор мешков и алгоритм регрессора мешков

Преимущества

  • Это увеличивает точность.
  • это позволяет избежать переобучения.
  • это уменьшает дисперсию

Недостатки

  • Это дорого в вычислительном отношении.
  • При неправильном моделировании может возникнуть проблема высокого смещения.
  • Модель теряет интерпретируемость.

Что входит в BOOSTing?

Например, когда мы готовим блюдо в первый раз, мы можем сделать его лучше, чем в первый раз, если в первый раз что-то пошло не так. И это продолжается. Мы делаем его лучше, анализируя свои ошибки. От слабого к более сильному. Вот как работает этот алгоритм повышения. Алгоритм повышения — это метод моделирования ансамбля, который пытается создать сильного ученика из числа слабых учеников. Первоначально модель строится на основе обучающих данных. Затем строится вторая модель, которая пытается повысить точность первой модели. Эта процедура будет продолжена, и модели будут добавляться до тех пор, пока мы не получим лучшую точность.

Он работает в процессе повышения последовательно.

Примеры алгоритмов повышения:

  • Алгоритм Адабуст
  • Алгоритм Catboost
  • Алгоритм XGBoost
  • Алгоритм повышения градиента

Преимущества повышения:

  • Эффективен в снижении предвзятости.
  • это повышает точность.
  • Это позволяет избежать недообучения

Недостатки повышения:

  • Это вычислительно дорого.
  • Могут быть шансы, что модель подвергается Underfitting. Потому что могут быть шансы ошибки в результате в предыдущей модели, и это также влияет на следующую модель.

Спасибо, что дочитали до сих пор, продолжайте читать и не останавливайтесь.
Удачного кодирования 🙂

Мое личное портфолио: https://suryatejamenta.co.in/
Мой профиль в LinkedIn: https://www.linkedin.com/in/surya-teja-menta/
Мой профиль на GitHub: https://github.com/Surya-Teja-Menta