В этой статье их два раздела —

Сначала мы обсудим математику за кулисами, а во второй части обсудим реализацию.

Что касается математической части, мы обсудим простую регрессию, а затем перейдем к регрессии с множественными переменными.

Давайте обсудим резюме здесь.

Мы определяем функцию потерь и пытаемся минимизировать ее, используя метод градиентного спуска.

Теперь давайте начнем с части реализации.

Я использую набор данных Boston, который вы можете легко найти в Интернете, или вы можете скачать sklearn и ввести:

Здесь нас интересует алгоритм реализации полного кода. Я предоставлю ссылку на GitHub.

Итак, давайте сразу перейдем к алгоритму, но перед этим обратите внимание на нормализацию ваших данных и добавление 1 перед вашими данными X. Это важно, потому что именно так мы определяем нашу функцию.

Алгоритм -

Здесь мы использовали векторизацию в нашем коде. Мое предложение: попробуйте это с ручкой и бумагой, постарайтесь сохранить запись умножения матриц и результат, который мы получаем. Это простой код, просто выполняйте его шаг за шагом и попытайтесь выяснить, что происходит. Это займет время, но это весело.

График ошибок-

Итак, мы можем наблюдать, что получаем минимальное значение около 30-й итерации.

Ссылка на гитхаб —

https://github.com/tjjain/Linear_Regression-

Я только начал писать статьи, и это будет большим подспорьем, если вы, gyz, подскажете, над чем мне следует поработать.