Градиентный спуск и нормальное уравнение — это оба метода, которые можно использовать для поиска оптимального решения для модели линейной регрессии.

Оба метода используются для нахождения значений параметров модели (таких как коэффициенты признаков), которые минимизируют ошибку между прогнозируемыми значениями и фактическими значениями в обучающем наборе.

Скорость обучения — это гиперпараметр, который определяет размер шагов, предпринимаемых алгоритмом для настройки параметров модели во время обучения.

Градиентный спуск:

✅Необходимо выбрать скорость обучения.

Скорость обучения определяет размер шагов, предпринимаемых для обновления параметров модели в направлении градиента. Большая скорость обучения может привести к более быстрой сходимости, но также может сделать алгоритм более склонным к превышению оптимального решения. Меньшая скорость обучения может привести к более медленной сходимости, но также может помочь алгоритму более точно сходиться к оптимальному решению.

✅Быстрее для наборов данных с большим количеством признаков или для случаев, когда оптимальное решение требует множества итераций.

Градиентный спуск — это итерационный алгоритм, который начинается с начальных значений параметров модели и итеративно корректирует их, чтобы минимизировать ошибку. Это достигается за счет использования градиента функции ошибок для определения направления, в котором должны быть скорректированы параметры.

✅Хорошо работает даже при большом n.

"n" обычно означает количество признаков в наборе данных, используемых для обучения. Значение «n» может повлиять на производительность алгоритма градиентного спуска, поскольку большее количество признаков может усложнить задачу оптимизации и может потребовать большего количества итераций для сходимости к оптимальному решению. Уменьшите количество признаков в набор данных, выбирая только наиболее релевантные и информативные функции, так как это может помочь повысить эффективность и действенность алгоритма градиентного спуска.

✅Временная сложность O(kn), где k — количество итераций.

Нормальное уравнение:

✅Не нужно выбирать скорость обучения.

Нормальное уравнение не имеет параметра скорости обучения, поскольку оно непосредственно вычисляет оптимальное решение для параметров модели за один шаг. Это означает, что нормальное уравнение не имеет возможности регулировать размер шага, как это делает градиентный спуск.

✅Не нужно повторять.

Это прямой метод, который находит оптимальное решение за один шаг путем решения системы линейных уравнений.

✅Может быть более эффективным в вычислительном отношении для наборов данных с небольшим количеством функций.

✅Временная сложность составляет O(n³) для набора данных с n функциями.

Выбор того, какой метод использовать, будет зависеть от конкретных характеристик проблемы.

А выбор за вами 😉