Всем привет👋,
Сегодня машинное обучение и его применение развиваются день ото дня. Нам становится все труднее каждый день вспоминать основные понятия, связанные с машинным обучением.
Поэтому представляем серию шпаргалок по алгоритму машинного обучения, в которой мы будем вспоминать основные понятия, связанные с алгоритмом машинного обучения, которые помогут вам в решении любых интервью или проектов по науке о данных.
Это будет пошаговое объяснение для быстрого повторения и понимания алгоритмов машинного обучения.
Так что держитесь крепче………..
Машины опорных векторов
- Алгоритм контролируемого обучения можно использовать как для классификации, так и для постановки задачи регрессии.
- Он работает, классифицируя данные по разным классам, находя линию, т. е. гиперплоскость, которая разделяет набор обучающих данных на классы.
- В SVM мы отображаем данные в виде точки в n-мерном пространстве, где n – это количество признаков, значение каждого из которых должно быть значением координат. Затем выполняется классификация путем нахождения гиперплоскостного дифференцирующего два класса.
- Метод опорных векторов пытается максимизировать расстояние между различными вовлеченными классами, и это называется максимизацией поля.По сути, линия между двумя классами идентифицирована, тогда есть большая вероятность, что SVM обобщит невидимые данные.
- SVM подразделяются на следующие:
# Линейный SVM-
☞ Линейный SVM является классификатором, который разделяет обучающие данные с помощью гиперплоскости. В классификаторе SVM легко добавить гиперплоскость между двумя классами, но возникает вопрос, что мы должны добавлять функции вручную, чтобы сформировать гиперплоскость. называется Kernal Trick.
# Нелинейный SVM-
☞ В нелинейных SVM невозможно разделить обучающие данные с помощью гиперплоскости
☞ SVM Kernal определяет функцию, которая берет низкоразмерное входное пространство и преобразует его в многомерное пространство, следовательно, неразделимые точки данных преобразуются в разделяемые.
Преимущества опорных векторов
- SVM обеспечиваетнаилучшую производительность классификации (точность) обучающих данных.
- SVM обеспечивает большую эффективность для правильной классификации будущих данных.
- Самое лучшее в SVM то, что он не делает никаких строгих предположений о данных.
- Он не подгоняет данные.
Недостатки метода опорных векторов
- Время обучения больше для больших наборов данных.
- Не дает хороших результатов, когда у нас есть шум в нашем наборе данных.
- SVM напрямую не предоставляет оценки вероятности. Следовательно, его можно рассчитать с помощью k-кратной перекрестной проверки.
- Алгоритмы SVM немного сложнее визуализировать из-за сложности формулировки.
Применения метода опорных векторов
- Прогнозирование фондового рынка различными финансовыми учреждениями.
- Распознавание лиц классифицирует часть изображения как лицо или не имеет лица и создает рамку.
- Может использоваться в биомедицинской визуализации, например, для классификации раковых и белковых клеток.
- Распознавание рукописного ввода Мы используем SVM для распознавания широко используемых рукописных символов.
- Используется в Классификация текстовых документов.
- Крайне важен в тех случаях, когда требуется очень высокая прогностическая способность.
ℹ Ознакомиться с реализацией алгоритма опорных векторов в Scikit можно здесь.
ℹ R реализацию алгоритма опорных векторов можно найти здесь.
Я надеюсь, что с приведенной выше информацией вы лучше поймете алгоритм машин опорных векторов. Кроме того, вы сможете ответить на любой вопрос интервью, связанный с SVM.
Следующая шпаргалка по ML, алгоритму. Пожалуйста, перейдите по этой ссылке.
Оформите заказ на другие мои блоги, связанные с ML/DL, здесь.
Если вам понравился этот пост, пожалуйста, подпишитесь на меня. Если вы заметили какие-либо ошибки в образе мышления, формулах, анимации или коде, сообщите мне об этом.
Ура!