В этой статье их два раздела —
Сначала мы обсудим математику за кулисами, а во второй части обсудим реализацию.
Что касается математической части, мы обсудим простую регрессию, а затем перейдем к регрессии с множественными переменными.
Давайте обсудим резюме здесь.
Мы определяем функцию потерь и пытаемся минимизировать ее, используя метод градиентного спуска.
Теперь давайте начнем с части реализации.
Я использую набор данных Boston, который вы можете легко найти в Интернете, или вы можете скачать sklearn и ввести:
Здесь нас интересует алгоритм реализации полного кода. Я предоставлю ссылку на GitHub.
Итак, давайте сразу перейдем к алгоритму, но перед этим обратите внимание на нормализацию ваших данных и добавление 1 перед вашими данными X. Это важно, потому что именно так мы определяем нашу функцию.
Алгоритм -
Здесь мы использовали векторизацию в нашем коде. Мое предложение: попробуйте это с ручкой и бумагой, постарайтесь сохранить запись умножения матриц и результат, который мы получаем. Это простой код, просто выполняйте его шаг за шагом и попытайтесь выяснить, что происходит. Это займет время, но это весело.
График ошибок-
Итак, мы можем наблюдать, что получаем минимальное значение около 30-й итерации.
Ссылка на гитхаб —
https://github.com/tjjain/Linear_Regression-
Я только начал писать статьи, и это будет большим подспорьем, если вы, gyz, подскажете, над чем мне следует поработать.