Модель машинного обучения прямого выбора, обратного исключения, все-в-одном и двунаправленного исключения.

В множественной линейной регрессии мы не можем принять во внимание все переменные, чтобы построить модель машинного обучения, потому что это сбивает машину с толку при прогнозировании, а машина дает неоднозначные результаты, что затрудняет прогнозирование.

Если мы заполним все переменные в модели, произойдут 2 вещи:

  1. Мусор на входе, мусор на выходе

2. Специалистам по данным становится сложно дать объяснение.

Существует 4 модели машинного обучения:

1. Все в одном

2. Обратная элиминация

3. Выбор вперед

4. Двунаправленное устранение

Универсальная модель:

В эту модель мы помещаем все атрибуты или столбцы, которые помогают делать прогноз. Эта модель машинного обучения хороша, когда независимых переменных или матрицы признаков меньше.

Обратная ликвидация:

В этой модели машинного обучения мы подходим поэтапно:

Шаг 1. Выберите уровень значимости, чтобы остаться в модели. Уровень значимости — это мера силы доказательств, которые должны присутствовать в вашем выборочном наборе данных. Значение значимости 0,05 означает, что существует 5-процентный риск или существует фактическая разница.

Шаг 2. Подгонка всех возможных предикторов, которые являются всеми возможными атрибутами столбца.

Шаг 3: нам нужно получить p-значение (это вероятность того, что вы получите эффект, наблюдаемый в вашем выборочном наборе данных) из набора данных.

Шаг 4. Если p-значение меньше вашего уровня значимости, вы можете доказать, что нулевая гипотеза отклонена, т. е. ваш атрибут или столбец имеет значение для модели. В противном случае мы удаляем столбец, имеющий p-значение выше значимого уровня.

Шаг 5. Сопоставьте модель без этого столбца.

Шаг 6. Выполняйте шаги 3, 4 и 5 до тех пор, пока p-значения всех атрибутов или столбцов не станут ниже значимого уровня.

Выбор вперед:

В этой модели машинного обучения мы подходим поэтапно:

Шаг 1. Выберите уровень значимости, чтобы остаться в модели (SL = 0,05).

Шаг 2. Начните с нулевой модели. Нулевая модель не имеет предикторов, только один перехват. Итак, выполните поиск по всем атрибутам с наименьшим P-значением.

Шаг 3. Сохраните эту переменную и подгоните все возможные модели, добавив один дополнительный предиктор к уже имеющимся.

Шаг 4. Рассмотрите все атрибуты или предикторы с наименьшим p-значением.

Шаг 5. Если p-значение меньше значимого уровня, перейдите к шагу 3, в противном случае модель готова.

ДвунаправленныйИсключение:

В этой модели машинного обучения мы подходим поэтапно:

Шаг 1. Выберите уровень значимости, чтобы остаться в модели (SL = 0,05).

Шаг 2. Выполните следующий шаг «Прямого выбора» (новые переменные должны иметь значение p ‹ Уровень значимости).

Шаг 3.Выполните все шаги «обратного исключения» (старые переменные должны иметь p-значение ‹Уровень значимости)

Шаг 4. Повторите шаги 2 и 3.

Шаг 5. Нельзя вводить новые переменные и нельзя выходить из старых переменных.