Продолжим наше обучение
Чтобы понять линейную регрессию, сначала мы должны знать
Что такое регрессия?
Регрессия — это метод моделирования целевого значения на основе независимых предикторов. Этот метод в основном используется для прогнозирования и выяснения причинно-следственных связей между переменными.
Что такое ЛИНЕЙНАЯ регрессия?
- Линейная регрессия — это алгоритм машинного обучения.
- Он основан на контролируемом обучении.
- Линейная регрессия — это тип регрессионного анализа, в котором количество независимых переменных (x) и зависимая переменная (y) имеют линейную связь между собой.
ВИДЫ ЛИНЕЙНОЙ РЕГРЕССИИ
Линейная регрессия обычно подразделяется на два типа:
1 — простая линейная регрессия.
2 — множественная линейная регрессия.
ПРОСТАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ
Простая линейная регрессия используется для оценки взаимосвязи междудвумя количественными переменными.
Математические формулы простой линейной регрессии
где
yr=зависимая переменная/вектор отклика/выход
yp=прогнозируемый отклик
x=независимая переменная/вектор признаков/вход
b=смещение/вес/пересечение
c=cofficeint от x
Найдя наилучшие значения b и c, модель получает наилучшую аппроксимирующую линию регрессии.
На приведенном выше рисунке показана линия наилучшего соответствия для набора данных «SalaryData».
В этом наборе данных у нас есть две функции, т. е. YearsExperience и Salary, и наша линейная модель прогнозирует заработную плату как результат при вводе данных в виде многолетнего опыта.
Множественная линейная регрессия
В мультилинейной регрессии у нас есть более одного вектора признаков или мы можем иметь две или более независимых переменных.
Объясненное выше уравнение множественной регрессии принимает следующий вид:
y = b1x1 + b2x2 + … + bnxn + c.
Цель регрессии состоит в том, чтобы определить значения весов 𝑏₁,𝑏₂,..bn, чтобы этот y был как можно ближе к фактическому ответу.
ФУНКЦИЯ СТОИМОСТИ:
Достигая наилучшей линии регрессии, модель стремится предсказать значение y таким образом, чтобы разница ошибок между прогнозируемым значением и истинным значением была минимальной.
Итак, очень важно обновить значения b и c, чтобы достичь наилучшего значения, которое минимизирует ошибку между предсказанным значением y и истинным значением y.
ГРАДИЕНТНЫЙ СПУСК:
Процесс оптимизации значений коэффициентов путем итеративной минимизации ошибки модели на ваших обучающих данных называется градиентным спуском. Сумма квадратов ошибок вычисляется для каждой пары входных и выходных значений. Скорость обучения используется в качестве коэффициента масштабирования, а коэффициенты обновляются в направлении минимизации ошибки. Процесс повторяется до тех пор, пока не будет достигнута минимальная сумма квадратов ошибок или дальнейшее улучшение невозможно.
Вот и подходит к концу эта статья.
РЕЗЮМЕ:
В этой статье я пытаюсь объяснить -
- Что такое регрессия?
- Что такое ЛИНЕЙНАЯ регрессия?
- ВИДЫ ЛИНЕЙНОЙ РЕГРЕССИИ
- ПРОСТАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ
- МНОЖЕСТВЕННАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ
- Математическая реализация линейной регрессии.
- Что такое функция затрат?
- Что такое градиентный спуск?
СПАСИБО ЗА ВАШЕ ЦЕННОЕ ВРЕМЯ