Публикации по теме 'feature-importance'


Анализ важности функций в машинном обучении
Введение Всем привет! Меня зовут Анар. Я инженер по машинному обучению и, в качестве подработки, совладелец компании SPUNCH, где имею честь исследовать новые горизонты в области науки о данных :) В этой серии статей я сосредоточусь на реальных случаях из делового мира, которые помогли мне и, надеюсь, помогут и вам. Хорошо, давайте начнем! Сегодня я хочу рассказать о достаточно сложном процессе анализа важности признаков после получения результатов модели и инструменте для работы с..

Демистификация результатов моделей: передовые методы интерпретации моделей машинного обучения
Введение. Поскольку модели машинного обучения продолжают развиваться и становиться все более сложными, понимание и интерпретация их результатов имеют решающее значение для укрепления доверия, извлечения информации и соблюдения нормативных или этических требований. В этой всеобъемлющей статье мы углубимся в искусство интерпретации результатов моделей машинного обучения. Мы рассмотрим передовые методы, которые выходят за рамки базового анализа важности функций и обеспечивают более..

Детальное понимание результатов анализа чувствительности (Morris&Sobol из SALib)
В прошлом году я опубликовал статью об использовании SALib для анализа чувствительности: Анализ чувствительности (важность признаков) с помощью SALib в проекте цен на жилье в Бостоне . Это простой игрушечный пример, который дает только результаты анализа Морриса и примерно указывает на наиболее важные функции. Однако результаты можно объяснить гораздо подробнее.

Визуализация и выбор важных функций в случайном лесу
Сделав график важности функций Хотите построить модель случайного леса, используя самый важный признак в наборе данных? Если Да , как выбрать наиболее важные функции в случайном лесу? Сегодня я отвечу на этот вопрос, построив модель случайного леса с помощью…

Открывая черный ящик: понимание моделей машинного обучения с помощью значений SHAP
SHAP (Shapley Additive exPlanations) — популярный метод объяснения результатов моделей машинного обучения. Он был представлен в 2017 году Лундбергом и Ли и с тех пор стал широко используемым инструментом для понимания прогнозов, сделанных сложными моделями. Значения SHAP, генерируемые методом SHAP, дают представление о том, как каждая функция в модели влияет на ее прогнозы.

Важность функции и ее актуальность для моделей машинного обучения.
Создание хорошей модели машинного обучения — это не просто занесение сотен столбцов данных в блокнот и использование scikit-learn для построения, ведь в Интернете доступно бесчисленное множество пакетов и инструментов. Поэтому нет необходимости говорить, что выбор подходящих функций для этих моделей очень важен, поскольку бесполезные данные приводят к предвзятости, которая искажает окончательные результаты нашего машинного обучения. Достичь исключительной модели машинного обучения можно,..

Остатки Шепли: измерение ограничений значений Шепли для объяснимости
Давайте воспользуемся мелочью, чтобы показать информацию, пропущенную значениями Шепли. Введение Чтобы ответственно использовать машинное обучение, вы должны попытаться объяснить, что движет прогнозами вашей модели машинного обучения. Многие специалисты по обработке и анализу данных и компании, занимающиеся машинным обучением, осознают, насколько важно иметь возможность объяснять, каждую функцию, как модель реагирует на вводимые данные. В этой статье будет показано, как значения..