Публикации по теме 'dimensionality-reduction'


Держите свою модель науки о данных максимально простой, но не более простой
Используйте график ковариационной матрицы, чтобы выбрать соответствующие функции для построения модели. « Все нужно делать как можно проще, но не проще». Альберт Эйнштейн Алгоритм машинного обучения (например, классификация, кластеризация или регрессия) использует обучающий набор данных для определения весовых коэффициентов, которые можно применять к невидимым данным в целях прогнозирования. Перед реализацией алгоритма машинного обучения необходимо выбрать только релевантные..

PCA 101: Руководство для начинающих по осмыслению многомерных данных
В области машинного обучения (ML) PCA или анализ основных компонентов является популярным методом уменьшения количества признаков в наборе данных при сохранении дисперсии и информации из исходных данных. Это имеет решающее значение для этапов извлечения и выбора функций конвейера машинного обучения, поскольку алгоритмы машинного обучения работают более эффективно с меньшим количеством функций. В этой статье будет подробно описан PCA и показано, как его можно использовать для понимания..

Автоэнкодеры против PCA: когда использовать?
Необходимость уменьшения размерности В проектах машинного обучения мы часто сталкиваемся с проблемой размерности, когда количество записей данных не является существенным фактором количества функций. Это часто приводит к проблемам, поскольку это означает обучение большого количества параметров с использованием ограниченного набора данных, что может легко привести к переобучению и плохому обобщению. Высокая размерность также означает очень большое время обучения. Поэтому для решения..

Снижение размерности (PCA и LDA)
В этой главе мы обсудим алгоритмы уменьшения размерности (анализ главных компонентов (PCA) и линейный дискриминантный анализ (LDA)). Эта глава состоит из 5 частей: Что такое уменьшение размерности? Как работает анализ главных компонентов (PCA)? Как работает линейный дискриминантный анализ (LDA)? Практическая реализация анализа основных компонентов (PCA). Практическое применение линейного дискриминантного анализа (LDA). 1. Что такое уменьшение размерности? В машинном обучении..

Как выбрать наилучшее количество основных компонентов для набора данных
Шесть методов, которым вы должны следовать Выбор наилучшего количества основных компонентов является основной проблемой при применении анализа основных компонентов (PCA) к набору данных. С технической точки зрения, выбор наилучшего количества основных компонентов называется типом процесса настройки гиперпараметров, в котором мы выбираем оптимальное значение для гиперпараметра n_components в Scikit-learn PCA() класс. from sklearn.decomposition import PCA pca = PCA( n_components=?..

Шпаргалка по уменьшению размерности
Все, что нужно знать о снижении размерности за 5 минут В этой статье вы найдете полную шпаргалку по снижению размерности. Через пять минут вы сможете узнать, что это такое, и освежить в памяти основные алгоритмы. Алгоритмы уменьшения размерности представляют собой методы, которые сокращают количество функций (не выборок) в наборе данных. В приведенном ниже примере задача состоит в том, чтобы уменьшить количество входных функций (развернуть swissroll из 3D в 2D) и в то же время..

Прогнозирование относительного расположения КТ-срезов на КТ-изображениях
Регрессия с использованием основных компонентов и ElasticNet | Навстречу AI Прогнозирование относительного расположения КТ-срезов на КТ-изображениях Прогнозирование относительного расположения КТ-срезов на осевой оси человеческого тела с использованием методов регрессии на очень многомерных данных Регрессия - один из самых фундаментальных методов машинного обучения. Проще говоря, это означает «прогнозирование непрерывной переменной с помощью других независимых категориальных /..