Публикации по теме 'feature-selection'


Выбор функций: ключевой метод повышения точности моделей
Здравствуйте друзья, Это мой первый блог, и я полностью помогу вам понять ключевые инструменты науки о данных 😉. Мой первый блог основан на выборе функций. Выбор функций  – это процесс выбора оптимального количества функций из большого набора функций. Есть несколько преимуществ этого процесса выбора признаков, а также существуют различные методы, доступные для этого процесса выбора признаков. В этом блоге мы рассмотрим эти преимущества и различные методы выбора функций. Почему..

Методы выбора признаков в машинном обучении.
В области машинного обучения выбор признаков играет решающую роль в повышении производительности модели, снижении вычислительной сложности и повышении интерпретируемости. Выбор признаков включает определение наиболее релевантных и информативных признаков из данного набора данных. Допустим, вы любитель пиццы и хотите создать систему рекомендаций по пицце на основе искусственного интеллекта. У вас есть огромная база данных с тысячами атрибутов, описывающих каждую пиццу, включая..

Отфильтруйте шум из ваших данных с помощью Kydavra PCAFilter
PCA - больше, чем просто уменьшение размеров. Анализ главных компонентов известен как один из самых популярных методов уменьшения размерности. Однако немногие знают, что у него есть очень интересное свойство - уменьшенные данные можно вернуть к исходному измерению. Более того, данные, возвращенные к исходному размеру, более очищены. Итак, в Sigmoid мы решили создать модуль, чтобы легко применять это свойство к фреймам данных pandas. Использование PCAFilter из библиотеки Kydavra...

Методы выбора признаков
В науке о данных важным шагом является выбор функций жизненного цикла. При выборе функций мы выбираем соответствующие функции, связанные с нашими целевыми переменными. Существует 3 основных типа выбора признаков, а также больше подтипов. В основном мы выбираем методы, основанные на независимых и зависимых переменных. Например, любой вариант использования имеет более 100 функций, но все 100 функций не имеют отношения к цели, в этом случае выбор функций играет важную роль. Если мы добавим..

Выбор функций и EDA в машинном обучении
Как использовать визуализацию данных для выбора функций В жизненном цикле машинного обучения выбор функций является критическим процессом, который выбирает подмножество входных функций, которые будут иметь отношение к прогнозированию. Включение нерелевантных переменных, особенно с плохим качеством данных, часто может испортить результаты модели. Кроме того, выбор функций имеет следующие преимущества: 1) Избегайте проклятия размерности , поскольку некоторые алгоритмы плохо..

Использование Kydavra KullbackLeiblerSelector для выбора функций
Что такое KullbackLeiblerSelector? Это селектор функций, основанный на дивергенции Кульбака-Лейблера. Дивергенция — это мера различия между двумя вероятностными распределениями. В случае машинного обучения мы можем рассмотреть распределения данных и рассчитать, насколько отличается определенный столбец признаков от целевого столбца. Как это рассчитывается? Дивергенция Кульбака-Лейблера, также называемая относительной энтропией в теории информации, рассчитывается по следующей..

Выбор функций: визуализация с помощью Yellowbrick
Выбор функций является важным аспектом проблем регрессии машинного обучения. Библиотека Yellowbrick предлагает очень удобный способ операционализации и визуализации выбора функций. Давайте посмотрим, как этого добиться. Шаг 1. Импортируйте библиотеки from yellowbrick.target import FeatureCorrelation #Long method from yellowbrick.target.feature_correlation import feature_correlation #quick import numpy as np import pandas as pd import matplotlib.pyplot as plt Шаг 2. Включите..