Объяснение линейной регрессии в машинном обучении

Что такое линейная регрессия?

Линейная регрессия — это статистический метод, который позволяет нам обобщать и изучать отношения между количественными переменными. По сути, линейная регрессия помогает нам смоделировать, как изменения одного или нескольких входных данных влияют на результат. Выход обычно представляет собой непрерывную переменную, такую ​​как время, цена и высота. В машинном обучении очень часто встречается линейная регрессия. В этой статье объясняется разница между статистикой и нотациями машинного обучения.

Почему линейная регрессия важна?

С помощью линейной регрессии мы оцениваем взаимосвязь между выходом (зависимой переменной) и одним или несколькими входами (независимыми переменными), чтобы помочь нам делать прогнозы. Например, врачу может быть интересно предсказать, будет ли рак рецидивировать у пациента, и сколько времени пройдет до рецидива болезни, учитывая характеристики типа опухоли.

Определение

Давайте посмотрим на жаргон, связанный с линейной регрессией:

  1. Предикторы, независимые переменные или входные данные
  2. Ответ, или зависимая переменная, или вывод
  3. Остаток — разница между наблюдаемым (реальным) значением и прогнозируемым значением зависимой переменной.
  4. Коэффициенты или Веса. Они рассчитываются для определения строки, которая лучше всего «соответствует» данным. В статистике обычно обозначается как β. В ML они обычно обозначаются как W или θ.
  5. Отклонение или пересечение – помогает компенсировать влияние отсутствия релевантных предикторов для ответа и помогает сделать среднее значение остатков равным 0. Отсечение или смещение действует как значение по умолчанию для функции, т. е. когда все независимые значения равны нулю.

Начнем с простой модели

Термин «линейный» относится к линии, в данном случае к прямой линии. Интуитивно мы знаем, что линия указывает на наличие связи между входами и выходами. Наклон линии обеспечивает скорость изменения выхода при заданном входе.

Чтобы помочь нам лучше понять, как работает линейная регрессия, давайте попробуем смоделировать взаимосвязь между одним предиктором и ответом, то есть простую линейную регрессию. Мы рассмотрим взаимосвязь между радиусом опухоли (предиктор) и временем до рецидива (реакцией).

Y = W₀ + W₁・X₁ + ε

Приведенное выше уравнение очень похоже на уравнение прямой (y = c + m・x), где

W0 эквивалентен точке пересечения с осью y (c), а W1 эквивалентен наклону линии (m), моделирующей взаимосвязь. Модель машинного обучения будет:

hw(x) = W₀ + W₁・X₁

Функция hw(x) прогнозирует время, необходимое для рецидива рака, исходя из радиуса опухоли X₁ и веса W₁.

Оптимизация линии наилучшего соответствия

Цель применения линейной регрессии в машинном обучении состоит в том, чтобы выбрать линию наилучшего соответствия, то есть линию, которая находится как можно ближе к точкам данных. Линия наилучшего соответствия находится путем минимизации функции стоимости, такой как функция среднеквадратичной ошибки (MSE).

Объяснение среднеквадратичной ошибки

Среднеквадратическая ошибка (MSE) рассчитывается с использованием следующего уравнения:

где N — количество точек данных (обучающих выборок). Таким образом, MSE можно рассматривать как среднее значение суммы всех квадратов остатков.

Функция стоимости/ошибки для машинного обучения

В машинном обучении мы используем функцию стоимости, которая очень похожа на MSE и обозначается как:

По сути, мы хотим найти оптимальное W, чтобы минимизировать функцию ошибкиJ(W). Количество примеров в обучающем наборе равно m. Мы вычитаем Yᵢ, фактическое значение, из hw(xᵢ), прогнозируемого значения, основанного на нашей модели, и возводим это число в квадрат. Мы сложим все эти числа вместе и возьмем 1/2 только для того, чтобы упростить выводы, которые последуют при градиентном спуске.

Эта минимизация функции стоимости происходит с помощью алгоритма, известного как алгоритм градиентного спуска. Алгоритм градиентного спуска можно понять, представив, что вы находитесь на вершине холма и вам нужно добраться до подножия холма. Звучит легко! Но что, если у вас завязаны глаза. Скорее всего, вы начнете ощупывать окрестности, чтобы найти спуск и двигаться в этом направлении, чтобы добраться до подножия холма. По сути, это то, что делает градиентный спуск. Он пытается достичь основания холма, то есть минимальной ошибки, двигаясь к нему путем вычисления производных функции стоимости.

Градиентный спуск, регуляризация и многое другое

Для более глубокого понимания того, как работает градиентный спуск, и наглядных примеров линейной регрессии в машинном обучении с техническими пояснениями, запишитесь на Изучение ИИ с помощью курса ИИ с Одри Дюран».

Серия «Машинное обучение в здравоохранении»

В этой серии статей мы исследуем использование машинного обучения в сфере здравоохранения. Важные концепции и алгоритмы охватываются реальными приложениями, включая открытые наборы данных, открытый код (доступный на Github), используемый для проведения анализа и получения окончательных результатов и идей.

Первоначально опубликовано на korbit.ai