Трюк с ядром

Имея нелинейные данные в пространстве более низкого измерения и проецируя данные в пространство более высокого измерения, так что мы получаем линейную классификацию. Мы можем понять утверждение, взяв пример

Предположим, что все красные метки — это яблоки, а все синие метки — ягоды. Если кто-то попросит вас разделить их на 2 класса, то вы взяли все ягоды наверх с тарелкой и остальные, в нижней плоскости находятся яблоки. После классификации данных мы можем использовать логистическую регрессию или нейронную сеть для любых целей принятия решений или для заключения по любому шаблону соответственно.

SVM

SVM расшифровывается как «Машина опорных векторов». SVM подпадает под контролируемое обучение. Два важных шага в SVM: 1) Хитрости ядра: преобразовать в линейный класс и 2) Найти ближайшую точку к границе решения.

Предположим, у нас есть несколько четырехугольников или кругов в нашем наборе обучающих данных, и все они помечены. Мы хотим классифицировать данные на 2 разных класса круга и четырехугольника. Таким образом, для классификации данных мы строим гиперплоскость или границу решения, которая решает, что любые новые данные принадлежат классу кругов или четырехугольников. Теперь нам нужно выяснить, какие точки данных находятся на меньшем расстоянии от границы решения по отношению к классу оппонента. Эти 2 строки являются полем, которое показывает ошибку. Ближайшая точка к границе известна как опорный вектор. Максимальное увеличение маржи приводит к уменьшению ошибки. SVM выдает двоичный вывод либо 0, либо 1.

ДЕРЕВО РЕШЕНИЙ

Из приведенного выше рисунка мы можем легко понять, что такое дерево решений. Дерево решений — это инструмент поддержки принятия решений, использующий древовидную модель решений и их возможных последствий. Он содержит только операторы условного управления.