Общая идея приведенных выше алгоритмов ML

Трюк с ядром

Чтобы избежать проблемы логистической регрессии, способ получения нелинейных границ классификации. Проекция данных в многомерное пространство, т.е. добавление большего количества столбцов к данным.

Проецирование данных с прямой линии на нелинейную границу.

  1. Нелинейные комбинации существующих столбцов.
  2. Проецирование ваших данных из более низкого в более высокое размерное пространство.
  3. Так что данные линейно разделимы.

Один размер не подходит всем – ТЕОРЕМА НЕТ БЕСПЛАТНЫХ ОБЕДОВ

Классификатор, используемый сверху в Kernel Tricks, — это Машина опорных векторов.

Дерева решений

Это один из алгоритмов классификации, используемых для более высокой интерпретируемости.

Древовидная структура, в которой каждый узел имеет решение.

Получение информации. Особенность с наименьшей энтропией является наиболее важной характеристикой.

Энтропия – случайность

IG=1/энтропия

Уменьшение размерности

Чтобы уменьшить определенные столбцы или функции с меньшим количеством столбцов, мы сделаем лучшую классификацию. Здесь нет необходимости в метках классов.

Выбор функций — вперед и назад

Уменьшение количества функций – анализ основных компонентов

Данные временных рядов

Здесь каждая точка данных независима от другой точки данных.

Например: Измерение данных о погоде.

Методы

Сглаживание – чтобы избежать кривых.

Окно скользящей средней

Моделирование выполняется на стационарных рядах. Для этого мы будем использовать дифференциацию по времени.

Модель ARIMA

Авторегрессия, интегрированная со скользящей средней.

SARIMA Модель

Сезонная модель ARIMA

Используется для сезонных данных.

Базовое понимание алгоритмов машинного обучения.

Счастливого обучения!!

Быть в курсе…

Ссылки:

Нигде из моего собственного понимания простым способом