Чтобы получать больше подобных обновлений, подпишитесь на мой блог [email protected]

Машины опорных векторов (SVM) — это мощные, но гибкие алгоритмы машинного обучения под наблюдением, которые используются как для классификации, так и для регрессии. Но обычно они используются в задачах классификации. В 1960-х годах SVM были впервые представлены, но позже, в 1990 году, они были усовершенствованы. SVM имеют свой уникальный способ реализации по сравнению с другими алгоритмами машинного обучения. В последнее время они чрезвычайно популярны из-за своей способности обрабатывать несколько непрерывных и категориальных переменных.

Метод опорных векторов (SVM) — это передовая технология машинного обучения, которая позволяет решать сложные задачи, такие как распознавание изображений, лиц, голоса и т. д.

Машина опорных векторов (SVM) — это контролируемая машина обучаемая модель, которая использует алгоритмы классификации для задач двухгрупповой классификации. Предоставив модели SVM наборы помеченных обучающих данных для каждой категории, они могут классифицировать новый текст.

Работа SVM

Цель алгоритма метода опорных векторов — найти гиперплоскость в N-мерном пространстве (N — количество объектов), которая четко классифицирует точки данных. Модель SVM представляет собой представление различных классов в гиперплоскости в многомерном пространстве. Гиперплоскость будет генерироваться SVM итеративно, чтобы ошибка могла быть сведена к минимуму. Цель SVM — разделить наборы данных на классы, чтобы найти максимальную предельную гиперплоскость. (ММХ).

Чтобы разделить два класса точек данных, можно выбрать множество возможных гиперплоскостей. Наша цель — найти плоскость с максимальным запасом, то есть максимальным расстоянием между точками данных обоих классов. Максимальное расстояние между границами обеспечивает некоторое усиление, чтобы будущие точки данных можно было классифицировать с большей уверенностью.

Концепция гиперплоскости

Гиперплоскости — это, по сути, граница, которая классифицирует набор данных (отделяет спам от нежелательных сообщений). Это могут быть линии, 2D-плоскости или даже n-мерные плоскости, которые находятся за пределами нашего воображения.

Линия, которая используется для отделения одного класса от другого, называется гиперплоскостью. Гиперплоскости — это границы решений, которые помогают классифицировать точки данных. Точки данных, попадающие по обе стороны от гиперплоскости, можно отнести к разным классам. Кроме того, размер гиперплоскости зависит от количества объектов. Если количество входных объектов равно 2, то гиперплоскость — это просто линия. Если число входных признаков равно 3, то гиперплоскость становится двумерной плоскостью. Трудно представить, когда количество признаков превышает 3.

В p-мерном пространстве гиперплоскость — это плоское аффинное подпространство размерности p-1. Визуально в 2D-пространстве гиперплоскость будет линией, а в 3D-пространстве — плоской плоскостью.

Математически гиперплоскость это просто:

В общем, если данные можно идеально разделить с помощью гиперплоскости, то существует бесконечное количество гиперплоскостей, поскольку их можно сдвинуть вверх или вниз или слегка повернуть, не соприкасаясь с наблюдением.

Вот почему мы используем гиперплоскость максимального поля или оптимальную разделяющую гиперплоскость, которая представляет собой разделяющую гиперплоскость, наиболее удаленную от наблюдений. Мы вычисляем перпендикулярное расстояние от каждого тренировочного наблюдения с учетом гиперплоскость. Это известно как маржа.

Отступ определяется как зазор между двумя линиями в ближайших точках данных разных классов. Его можно рассчитать как расстояние по перпендикуляру от линии до опорных векторов. Большая маржа считается хорошей маржей, а маленькая маржа считается плохой маржой.

Опорные векторы – это точки данных, которые наиболее близки к гиперплоскости. Разделительная линия будет определена с помощью этих точек данных.