Прогноз, основанный на более чем одной функции.

Привет, ребята! В своих предыдущих статьях я покажу вам, как мы можем реализовать простую линейную регрессию, используя «Нормальное уравнение» в Python. Что же означает простая линейная регрессия? Это означает, что мы собираемся предсказать значение вывода, используя только одну функцию из нашего набора данных. Иногда нам трудно предсказать ценность только одной функции, верно? Вот почему нам нужно использовать многомерную линейную регрессию. Что же происходит с многомерной линейной регрессией? В MLR мы прогнозируем значение вывода из более чем одной входной функции. Например, мы можем спрогнозировать цену дома, используя его площадь, район, количество спален и т. Д. Итак, тогда мы можем использовать многомерную линейную регрессию.

Нормальное уравнение выглядит следующим образом:

Итак, приступим.

Здесь мы собираемся использовать набор данных, в котором есть столбцы с названиями возраст, кредитный рейтинг, дети и кредит. Наша цель - спрогнозировать стоимость ссуды на основе входных характеристик, таких как возраст, кредитный рейтинг и дети.

Функция гипотезы для многомерной линейной регрессии:

y = beta_0 + beta_1 * x1 + beta_2 * x2 +… .. + beta_n * xn

Давайте код!

(1) Импортируйте необходимые библиотеки:

(2) Прочтите файл:

(3) Распечатайте первые пять строк набора данных:

(4) Распечатать имена столбцов:

(5) Считайте данные столбца в переменные:

(6) Форма наших переменных:

(7) Нанесите данные на диаграмму рассеяния:

(8) Преобразуйте наши переменные типа данных из серии в массив:

(9) Количество строк в нашем наборе данных:

(10) Создайте матрицу «единиц»:

(11) Измените форму наших данных, чтобы мы могли выполнять такие операции, как сложение и умножение с x_bias:

(12) Создайте основную матрицу со всеми столбцами, такими как x_bias, x2, x2, x3:

(13) Выведите основную матрицу:

(14) Найдите транспонированную матрицу:

(15) Выполните умножение:

(16) Найдите обратное:

(17) выполнить умножение:

(18) Нахождение коэффициентов:

(19) выведите значения коэффициентов:

(20) Предскажите значения на основе рассчитанных значений коэффициентов:

Хорошо. Вот как мы можем выполнить многомерную линейную регрессию с помощью Python.

Движение вперед,

Все мои статьи доступны в моем блоге:
patrickstar0110.blogspot.com

Смотрите подробные видео с пояснениями и выводами на моем канале YouTube:

(1) Простая линейная регрессия, объясненная с ее производными:
https://youtu.be/1M2-Fq6wl4M

(2) Как рассчитать точность модели с помощью линейной регрессии с нуля:
https://youtu.be/bM3KmaghclY

(3) Простая линейная регрессия с использованием Sklearn:
https://youtu.be/_VGjHF1X9oU

(4) Объяснение математики машинного обучения (матриц):
https://youtu.be/1MASyeyAydw

(5) Полный математический вывод нормального уравнения:
https://youtu.be/E7Q4UP6bNmc

(6) Реализация простой линейной регрессии с использованием нормального уравнения:
https://youtu.be/wmmUJnmwQho

Прочтите другие мои статьи:

(1) Линейная регрессия с нуля:
https://medium.com/@shuklapratik22/linear-regression-from-scratch-a3d21eff4e7c

(2) Линейная регрессия посредством грубой силы:
https://medium.com/@shuklapratik22/linear-regression-line-through-brute-force-1bb6d8514712

(3) Полный вывод линейной регрессии:
https://medium.com/@shuklapratik22/linear-regression-complete-derivation-406f2859a09a

(4) Реализация простой линейной регрессии с нуля:
https://medium.com/@shuklapratik22/simple-linear-regression-implementation-from-scratch-cb4a478c42bc

(5) Простая линейная регрессия с нуля:
https://medium.com/@shuklapratik22/simple-linear-regression-implementation-2fa88cd03e67

(6) Градиентный спуск с его математикой:
https://medium.com/@shuklapratik22/what-is-gradient-descent-7eb078fd4cdd

(7) Линейная регрессия с градиентным спуском с нуля:
https://medium.com/@shuklapratik22/linear-regression-with-gradient-descent-from-scratch-d03dfa90d04c

(8) Методы вычисления ошибок для линейной регрессии:
https://medium.com/@shuklapratik22/error-calculation-techniques-for-linear-regression-ae436b682f90

(9) Введение в матрицы для машинного обучения:
https://medium.com/@shuklapratik22/introduction-to-matrices-for-machine-learning-8aa0ce456975

(10) Понимание математики, лежащей в основе нормального уравнения в линейной регрессии (полный вывод)
https://medium.com/@shuklapratik22/understanding-mat Mathematics-behind-normal-equation-in- линейная регрессия-aa20dc5a0961

(11) Реализация простой линейной регрессии с использованием нормального уравнения (матриц)
https://medium.com/@shuklapratik22/implementation-of-simple-linear-regression-using-normal -уравнение-матрицы-f9021c3590da