Модель машинного обучения прямого выбора, обратного исключения, все-в-одном и двунаправленного исключения.
В множественной линейной регрессии мы не можем принять во внимание все переменные, чтобы построить модель машинного обучения, потому что это сбивает машину с толку при прогнозировании, а машина дает неоднозначные результаты, что затрудняет прогнозирование.
Если мы заполним все переменные в модели, произойдут 2 вещи:
- Мусор на входе, мусор на выходе
2. Специалистам по данным становится сложно дать объяснение.
Существует 4 модели машинного обучения:
1. Все в одном
2. Обратная элиминация
3. Выбор вперед
4. Двунаправленное устранение
Универсальная модель:
В эту модель мы помещаем все атрибуты или столбцы, которые помогают делать прогноз. Эта модель машинного обучения хороша, когда независимых переменных или матрицы признаков меньше.
Обратная ликвидация:
В этой модели машинного обучения мы подходим поэтапно:
Шаг 1. Выберите уровень значимости, чтобы остаться в модели. Уровень значимости — это мера силы доказательств, которые должны присутствовать в вашем выборочном наборе данных. Значение значимости 0,05 означает, что существует 5-процентный риск или существует фактическая разница.
Шаг 2. Подгонка всех возможных предикторов, которые являются всеми возможными атрибутами столбца.
Шаг 3: нам нужно получить p-значение (это вероятность того, что вы получите эффект, наблюдаемый в вашем выборочном наборе данных) из набора данных.
Шаг 4. Если p-значение меньше вашего уровня значимости, вы можете доказать, что нулевая гипотеза отклонена, т. е. ваш атрибут или столбец имеет значение для модели. В противном случае мы удаляем столбец, имеющий p-значение выше значимого уровня.
Шаг 5. Сопоставьте модель без этого столбца.
Шаг 6. Выполняйте шаги 3, 4 и 5 до тех пор, пока p-значения всех атрибутов или столбцов не станут ниже значимого уровня.
Выбор вперед:
В этой модели машинного обучения мы подходим поэтапно:
Шаг 1. Выберите уровень значимости, чтобы остаться в модели (SL = 0,05).
Шаг 2. Начните с нулевой модели. Нулевая модель не имеет предикторов, только один перехват. Итак, выполните поиск по всем атрибутам с наименьшим P-значением.
Шаг 3. Сохраните эту переменную и подгоните все возможные модели, добавив один дополнительный предиктор к уже имеющимся.
Шаг 4. Рассмотрите все атрибуты или предикторы с наименьшим p-значением.
Шаг 5. Если p-значение меньше значимого уровня, перейдите к шагу 3, в противном случае модель готова.
ДвунаправленныйИсключение:
В этой модели машинного обучения мы подходим поэтапно:
Шаг 1. Выберите уровень значимости, чтобы остаться в модели (SL = 0,05).
Шаг 2. Выполните следующий шаг «Прямого выбора» (новые переменные должны иметь значение p ‹ Уровень значимости).
Шаг 3.Выполните все шаги «обратного исключения» (старые переменные должны иметь p-значение ‹Уровень значимости)
Шаг 4. Повторите шаги 2 и 3.
Шаг 5. Нельзя вводить новые переменные и нельзя выходить из старых переменных.