В этом сообщении блога я объясню вам, как реализовать линейную регрессию в Python с помощью SciKit Learn. Быстрый.

Линейная регрессия - один из самых базовых алгоритмов в машинном обучении, и почти в каждом курсе или учебном пособии по машинному обучению вы изучаете линейную регрессию раньше, чем любой другой алгоритм.

Он используется для прогнозирования значений на основе независимой переменной. Итак, приступим к делу.

Пример использования: его можно использовать для прогнозирования продаж в ближайшие месяцы путем анализа данных о продажах за предыдущие месяцы. Его также можно использовать для получения различных сведений о поведении клиентов. К концу блога мы построим модель, которая выглядит как на картинке ниже, то есть определим линию, которая лучше всего соответствует данным.

Модель линейной регрессии может быть представлена ​​следующим уравнением

  • Y - прогнозируемое значение.
  • θ ₀ - термин смещения.
  • θ ₁,…, θ ₙ - параметры модели.
  • x ₁, x ₂,…, x ₙ - значения характеристик.

Вышеупомянутая гипотеза также может быть представлена ​​следующим образом:

где

  • θ - вектор параметров модели, включая член смещения θ
  • x - вектор признаков с x ₀ = 1

Параметры модели и показатели производительности модели приведены ниже:

The coefficient is [[2.93655106]]
The intercept is [2.55808002]
Root mean squared error of the model is 0.07623324582875013.
R-squared score is 0.9038655568672764

RMSE - это квадратный корень из среднего значения суммы квадратов остатков.

RMSE определяется

Оценка или коэффициент детерминации объясняет, насколько можно уменьшить общую дисперсию зависимой переменной с помощью регрессии наименьших квадратов.

определяется

SSₜ - это общая сумма ошибок, если мы возьмем среднее значение наблюдаемых значений в качестве прогнозируемого значения.

SSᵣ: сумма квадратов остатков.

В моем следующем блоге я буду писать о линейной регрессии с использованием градиентного спуска в Python.