Публикации по теме 'feature-selection'
Выбор функций: ключевой метод повышения точности моделей
Здравствуйте друзья,
Это мой первый блог, и я полностью помогу вам понять ключевые инструменты науки о данных 😉.
Мой первый блог основан на выборе функций.
Выбор функций – это процесс выбора оптимального количества функций из большого набора функций. Есть несколько преимуществ этого процесса выбора признаков, а также существуют различные методы, доступные для этого процесса выбора признаков. В этом блоге мы рассмотрим эти преимущества и различные методы выбора функций.
Почему..
Методы выбора признаков в машинном обучении.
В области машинного обучения выбор признаков играет решающую роль в повышении производительности модели, снижении вычислительной сложности и повышении интерпретируемости. Выбор признаков включает определение наиболее релевантных и информативных признаков из данного набора данных.
Допустим, вы любитель пиццы и хотите создать систему рекомендаций по пицце на основе искусственного интеллекта. У вас есть огромная база данных с тысячами атрибутов, описывающих каждую пиццу, включая..
Отфильтруйте шум из ваших данных с помощью Kydavra PCAFilter
PCA - больше, чем просто уменьшение размеров.
Анализ главных компонентов известен как один из самых популярных методов уменьшения размерности. Однако немногие знают, что у него есть очень интересное свойство - уменьшенные данные можно вернуть к исходному измерению. Более того, данные, возвращенные к исходному размеру, более очищены. Итак, в Sigmoid мы решили создать модуль, чтобы легко применять это свойство к фреймам данных pandas.
Использование PCAFilter из библиотеки Kydavra...
Методы выбора признаков
В науке о данных важным шагом является выбор функций жизненного цикла. При выборе функций мы выбираем соответствующие функции, связанные с нашими целевыми переменными. Существует 3 основных типа выбора признаков, а также больше подтипов. В основном мы выбираем методы, основанные на независимых и зависимых переменных. Например, любой вариант использования имеет более 100 функций, но все 100 функций не имеют отношения к цели, в этом случае выбор функций играет важную роль. Если мы добавим..
Выбор функций и EDA в машинном обучении
Как использовать визуализацию данных для выбора функций
В жизненном цикле машинного обучения выбор функций является критическим процессом, который выбирает подмножество входных функций, которые будут иметь отношение к прогнозированию. Включение нерелевантных переменных, особенно с плохим качеством данных, часто может испортить результаты модели.
Кроме того, выбор функций имеет следующие преимущества:
1) Избегайте проклятия размерности , поскольку некоторые алгоритмы плохо..
Использование Kydavra KullbackLeiblerSelector для выбора функций
Что такое KullbackLeiblerSelector?
Это селектор функций, основанный на дивергенции Кульбака-Лейблера.
Дивергенция — это мера различия между двумя вероятностными распределениями. В случае машинного обучения мы можем рассмотреть распределения данных и рассчитать, насколько отличается определенный столбец признаков от целевого столбца.
Как это рассчитывается?
Дивергенция Кульбака-Лейблера, также называемая относительной энтропией в теории информации, рассчитывается по следующей..
Выбор функций: визуализация с помощью Yellowbrick
Выбор функций является важным аспектом проблем регрессии машинного обучения. Библиотека Yellowbrick предлагает очень удобный способ операционализации и визуализации выбора функций. Давайте посмотрим, как этого добиться.
Шаг 1. Импортируйте библиотеки
from yellowbrick.target import FeatureCorrelation #Long method
from yellowbrick.target.feature_correlation import feature_correlation #quick
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
Шаг 2. Включите..