Всем привет👋,

Сегодня машинное обучение и его применение развиваются день ото дня. Нам становится все труднее каждый день вспоминать основные понятия, связанные с машинным обучением.

Поэтому представляем серию шпаргалок по алгоритму машинного обучения, в которой мы будем вспоминать основные понятия, связанные с алгоритмом машинного обучения, которые помогут вам в решении любых интервью или проектов по науке о данных.

Это будет пошаговое объяснение для быстрого повторения и понимания алгоритмов машинного обучения.

Так что держитесь крепче………..

Машины опорных векторов

  • Алгоритм контролируемого обучения можно использовать как для классификации, так и для постановки задачи регрессии.
  • Он работает, классифицируя данные по разным классам, находя линию, т. е. гиперплоскость, которая разделяет набор обучающих данных на классы.
  • В SVM мы отображаем данные в виде точки в n-мерном пространстве, где n – это количество признаков, значение каждого из которых должно быть значением координат. Затем выполняется классификация путем нахождения гиперплоскостного дифференцирующего два класса.

  • Метод опорных векторов пытается максимизировать расстояние между различными вовлеченными классами, и это называется максимизацией поля.По сути, линия между двумя классами идентифицирована, тогда есть большая вероятность, что SVM обобщит невидимые данные.
  • SVM подразделяются на следующие:

# Линейный SVM-

☞ Линейный SVM является классификатором, который разделяет обучающие данные с помощью гиперплоскости. В классификаторе SVM легко добавить гиперплоскость между двумя классами, но возникает вопрос, что мы должны добавлять функции вручную, чтобы сформировать гиперплоскость. называется Kernal Trick.

# Нелинейный SVM-

☞ В нелинейных SVM невозможно разделить обучающие данные с помощью гиперплоскости

☞ SVM Kernal определяет функцию, которая берет низкоразмерное входное пространство и преобразует его в многомерное пространство, следовательно, неразделимые точки данных преобразуются в разделяемые.

Преимущества опорных векторов

  • SVM обеспечиваетнаилучшую производительность классификации (точность) обучающих данных.
  • SVM обеспечивает большую эффективность для правильной классификации будущих данных.
  • Самое лучшее в SVM то, что он не делает никаких строгих предположений о данных.
  • Он не подгоняет данные.

Недостатки метода опорных векторов

  • Время обучения больше для больших наборов данных.
  • Не дает хороших результатов, когда у нас есть шум в нашем наборе данных.
  • SVM напрямую не предоставляет оценки вероятности. Следовательно, его можно рассчитать с помощью k-кратной перекрестной проверки.
  • Алгоритмы SVM немного сложнее визуализировать из-за сложности формулировки.

Применения метода опорных векторов

  • Прогнозирование фондового рынка различными финансовыми учреждениями.
  • Распознавание лиц классифицирует часть изображения как лицо или не имеет лица и создает рамку.
  • Может использоваться в биомедицинской визуализации, например, для классификации раковых и белковых клеток.
  • Распознавание рукописного ввода Мы используем SVM для распознавания широко используемых рукописных символов.
  • Используется в Классификация текстовых документов.
  • Крайне важен в тех случаях, когда требуется очень высокая прогностическая способность.

Ознакомиться с реализацией алгоритма опорных векторов в Scikit можно здесь.

R реализацию алгоритма опорных векторов можно найти здесь.

Я надеюсь, что с приведенной выше информацией вы лучше поймете алгоритм машин опорных векторов. Кроме того, вы сможете ответить на любой вопрос интервью, связанный с SVM.

Следующая шпаргалка по ML, алгоритму. Пожалуйста, перейдите по этой ссылке.

Оформите заказ на другие мои блоги, связанные с ML/DL, здесь.

Если вам понравился этот пост, пожалуйста, подпишитесь на меня. Если вы заметили какие-либо ошибки в образе мышления, формулах, анимации или коде, сообщите мне об этом.

Ура!