Лассо-регрессия помогает моделям точно выбирать переменные и прогнозировать результаты.

Лассо-регрессия — довольно известная линейная регрессия, которая полезна для уменьшения значения входных переменных для прогнозирования точного результата. Смысл Лассо - наименьшая абсолютная усадка и отбор, оператор. Как мы знаем, с помощью регрессии — это метод моделирования, с помощью которого мы можем прогнозировать числовые значения на основе предоставленных входных данных. Линейная регрессия — это алгоритм, используемый для предположения о линейной зависимости между входными данными и целевыми переменными. Чтобы стимулировать простые модели с меньшими значениями, которые являются расширением линейных регрессий, которые требуют добавления штрафов за функцию потерь во время обучения. Эти расширения называются регуляризованной линейной регрессией.

Лассо-регрессия

Лассо-регрессия — это регуляризованная линейная регрессия, которая включает в себя штраф L1. Это может уменьшить коэффициенты входных данных, которые не помогают предсказать выходные данные. Чтобы эффективно удалить входные данные из модели, этот штраф позволяет уменьшить несколько значений коэффициентов до нулевого значения. Что обеспечивает модель функцией автоматического выбора. Чтобы свести к минимуму сумму квадратов ошибок между прогнозом и целевыми значениями (y).

  • потеря = сумма от i=0 до n (y_i — yhat_i)²

Регуляризация L1

Регуляризация L1 применима, когда есть необходимость добавления штрафа, равного абсолютному значению величины коэффициента. Регуляризация L1 помогает уменьшить размер всех коэффициентов, благодаря чему некоторые коэффициенты уменьшаются до размера нуля. Что помогает эффективно удалять входные функции из модели.

  • l1_penalty = сумма от j=0 до p абс(beta_j)

Математическое представление уравнения регрессии лассо

Решения Лассо известны как задачи квадратичного программирования. Основная цель здесь — минимизировать алгоритм.

Здесь,

используется для представления величины усадки

При его увеличении коэффициенты обнуляются, а

Когда он увеличивается, смещение увеличивается.

Когда он уменьшается, дисперсия увеличивается.

тогда никакие параметры не исключаются, но в это время оценка такая же, как и в соответствии с линейной регрессией.

все коэффициенты удаляются.

Следовательно, со всеми этими полезными концепциями это весьма полезно для ИИ и ИИ-стартапов в предоставлении более качественных продуктов.