Задача из реальной жизни решается с помощью математики
Определение:
Простая линейная регрессия позволяет изучить взаимосвязь между двумя переменными. Одна переменная (x) называется независимой переменной, а другая переменная (y) известна как зависимая переменная, которая является нашей целевой переменной.
Формула:
x = значение независимой переменной
y = значение зависимой переменной
ß0 = константа (показывает значение оси Y, когда значение x = 0)
ß1 = значение коэффициент регрессии (показывает, насколько у изменяется на каждую единицу изменения х.
Пример:
давайте возьмем пример футбольной статистики, которая показывает стоимость трансфера в зависимости от голов. Это просто обзор, чтобы показать только фрейм данных.
Шаг 1. Оценка наклона (ß1) –
вот формула для ß1
Упростим приведенную выше формулу в соответствии с нашим набором данных:
где (A= цель-целевое_среднее) и (B = плата (миллион долларов)-средняя_плата)
ß1= 296.14/177.71 = 1.66
Шаг 2. Оцените точку пересечения (ß0)-
ß0=fee_mean – ß1 * target_mean = 60,285 - 1,66 * 29,42 = 11,44
Шаг 3. Уравнение прогнозов
Поместите значения ß0 и ß1 в приведенное выше уравнение.
y = 11.44 + 1.66 * x
в приведенном выше уравнении реализуйте входное значение (x), и вы получите выходное прогнозируемое значение (y).
Среднеквадратическая ошибка (RMSE):
RMS — это квадратный корень из среднего квадрата ошибок. Влияние каждой ошибки на RMS пропорционально величине квадрата ошибки; таким образом, более крупные ошибки оказывают непропорционально большое влияние на RMS. Следовательно, RMS чувствителен к выбросам.
где y = фактическое значение, y ̂ = прогнозируемое значение
Предположим, что среднеквадратичное значение ошибки равно 78, а размер выборки (N) = 7
, тогда RMS = 78/7 = 11,4
Это означает, что каждый прогноз в среднем ошибочен примерно на 11,4 единицы. Помните, что RMS чувствителен к выбросам.
В следующий раз, когда вы окажетесь в ситуации, когда вам нужно оценить количество на основе нескольких факторов, которые можно описать прямой линией, вы знаете, что можете использовать Модель линейной регрессии.
Спасибо, что прочитали!