В этом сообщении блога я объясню вам, как реализовать линейную регрессию в Python с помощью SciKit Learn. Быстрый.
Линейная регрессия - один из самых базовых алгоритмов в машинном обучении, и почти в каждом курсе или учебном пособии по машинному обучению вы изучаете линейную регрессию раньше, чем любой другой алгоритм.
Он используется для прогнозирования значений на основе независимой переменной. Итак, приступим к делу.
Пример использования: его можно использовать для прогнозирования продаж в ближайшие месяцы путем анализа данных о продажах за предыдущие месяцы. Его также можно использовать для получения различных сведений о поведении клиентов. К концу блога мы построим модель, которая выглядит как на картинке ниже, то есть определим линию, которая лучше всего соответствует данным.
Модель линейной регрессии может быть представлена следующим уравнением
- Y - прогнозируемое значение.
- θ ₀ - термин смещения.
- θ ₁,…, θ ₙ - параметры модели.
- x ₁, x ₂,…, x ₙ - значения характеристик.
Вышеупомянутая гипотеза также может быть представлена следующим образом:
где
- θ - вектор параметров модели, включая член смещения θ ₀
- x - вектор признаков с x ₀ = 1
Параметры модели и показатели производительности модели приведены ниже:
The coefficient is [[2.93655106]] The intercept is [2.55808002] Root mean squared error of the model is 0.07623324582875013. R-squared score is 0.9038655568672764
RMSE - это квадратный корень из среднего значения суммы квадратов остатков.
RMSE определяется
Оценка R² или коэффициент детерминации объясняет, насколько можно уменьшить общую дисперсию зависимой переменной с помощью регрессии наименьших квадратов.
R² определяется
SSₜ - это общая сумма ошибок, если мы возьмем среднее значение наблюдаемых значений в качестве прогнозируемого значения.
SSᵣ: сумма квадратов остатков.
В моем следующем блоге я буду писать о линейной регрессии с использованием градиентного спуска в Python.