Публикации по теме 'classification'


Значение «матрицы путаницы» в прогнозировании киберпреступлений💻💻
Уровень преступности имеет тенденцию к росту во всем мире, и анализ данных о преступности становится обязательным, чтобы помочь полицейским прогнозировать в борьбе с преступностью. В этой статье подход к интеллектуальному анализу данных был применен к набору данных о насильственных преступлениях для прогнозирования следующего совершения насильственных преступлений. Предыдущие исследователи использовали различные алгоритмы обучения с учителем для прогнозирования преступлений, при этом..

Опорные векторные машины
Опорные векторные машины Машины опорных векторов (SVM) — это мощный класс контролируемых алгоритмов машинного обучения, используемых для задач классификации и регрессии. Они превосходны в сценариях, где данные не являются линейно разделимыми, а также могут быть расширены для обработки нелинейных данных за счет использования функций ядра. Это немного запутанно, позвольте мне упростить это. На приведенном выше рисунке я дал вам задание разделить синие кружки и красные квадраты...

Машинное обучение на наборе данных о сердечных заболеваниях
«Здоровье - это состояние полного физического, социального и психического благополучия, а не просто отсутствие болезней или недугов. Таким образом, здоровье - это уровень функциональной эффективности живых существ и общее состояние ума, тела и духа человека, что означает отсутствие болезней, травм и боли. Это ресурс повседневной жизни и позитивная концепция, подчеркивающая физические возможности ». Крепкое здоровье - лучшее богатство !!! В этой статье на Medium мы узнаем о..

K-Ближайшие соседи (K-NN). Машинное обучение для начинающих.
Подробное руководство по началу практики машинного обучения (ML) в Python для начинающих с практическими примерами. Изучите ML и обновите себя от полного новичка до специалиста по ML. Объяснение алгоритма K-NN. вступление Алгоритм K-ближайших соседей (или K-NN) - это алгоритм классификации , который берет пакет помеченных точек и использует их, чтобы научиться маркировать другие точки. Алгоритм K-NN классифицирует случаи на основе их сходства с другими случаями. В K-ближайших..

Линейный дискриминантный анализ (LDA): раскрытие возможностей классификации с уменьшением размерности
Методы уменьшения размерности необходимы для извлечения ценной информации из многомерных наборов данных в машинном обучении. Среди них выделяется линейный дискриминантный анализ (LDA) как уникальный подход, сочетающий снижение размерности с классификацией. Хотя на первый взгляд LDA может напоминать анализ главных компонентов (PCA), он предлагает явные преимущества и результаты. В этой статье мы углубимся в тонкости LDA и продемонстрируем его эффективность с помощью задачи классификации..

Понимание через реализацию: дерево решений
Создайте свою собственную модель Понимание через реализацию: дерево решений Узнайте, как работает дерево решений, и реализуйте его на Python. Многие передовые модели машинного обучения, такие как случайные леса или алгоритмы повышения градиента, такие как XGBoost, CatBoost или LightGBM (и даже автоэнкодеры !) опираются на ключевой общий компонент: дерево решений ! Без понимания деревьев решений невозможно также понять ни один из вышеупомянутых продвинутых алгоритмов бэггинга или..

Напишем код с нуля: KNN
Это дополнение к серии Давайте понятно объясним , в котором я демонстрирую, как кодировать упомянутые модели на питоне с нуля. Если вы не знакомы с КНН, прочитайте мой рассказ по теме : Давайте понятно объясним: KNN В этой серии я собираюсь объяснить наиболее распространенные алгоритмы машинного обучения, начиная с основ и заканчивая… средним уровнем. ком Данные: Сначала нам нужно получить наши данные. Хотя я не использую..