Публикации по теме 'apc'


Использование анализа основных компонентов (PCA) для машинного обучения
Узнайте, как использовать PCA для уменьшения размерности набора данных. Очень часто в машинном обучении используются наборы данных высокой размерности с большим количеством признаков. Наборы данных высокой размерности создают ряд проблем, наиболее распространенной из которых является переоснащение, что снижает возможность обобщения за пределы того, что есть в обучающем наборе. Таким образом, вы должны использовать методы уменьшения размерности , чтобы уменьшить количество объектов..

Автоэнкодеры против PCA: когда использовать?
Необходимость уменьшения размерности В проектах машинного обучения мы часто сталкиваемся с проблемой размерности, когда количество записей данных не является существенным фактором количества функций. Это часто приводит к проблемам, поскольку это означает обучение большого количества параметров с использованием ограниченного набора данных, что может легко привести к переобучению и плохому обобщению. Высокая размерность также означает очень большое время обучения. Поэтому для решения..

Концепция машинного обучения 21: Проклятие размерности.
Проклятие размерности: =› Проклятие размерности относится к трудностям, возникающим при работе с многомерными данными, особенно в контексте машинного обучения. В многомерных данных количество признаков или измерений велико по сравнению с количеством наблюдений или точек данных. Проклятие размерности возникает, когда эта высокая размерность приводит к тому, что данные становятся слишком разреженными, что затрудняет выявление закономерностей и взаимосвязей между переменными. Влияние на..

Снижение размерности (PCA и LDA)
В этой главе мы обсудим алгоритмы уменьшения размерности (анализ главных компонентов (PCA) и линейный дискриминантный анализ (LDA)). Эта глава состоит из 5 частей: Что такое уменьшение размерности? Как работает анализ главных компонентов (PCA)? Как работает линейный дискриминантный анализ (LDA)? Практическая реализация анализа основных компонентов (PCA). Практическое применение линейного дискриминантного анализа (LDA). 1. Что такое уменьшение размерности? В машинном обучении..

Прогнозирование относительного расположения КТ-срезов на КТ-изображениях
Регрессия с использованием основных компонентов и ElasticNet | Навстречу AI Прогнозирование относительного расположения КТ-срезов на КТ-изображениях Прогнозирование относительного расположения КТ-срезов на осевой оси человеческого тела с использованием методов регрессии на очень многомерных данных Регрессия - один из самых фундаментальных методов машинного обучения. Проще говоря, это означает «прогнозирование непрерывной переменной с помощью других независимых категориальных /..

Простые реализации PCA
Это часть серии, посвященной анализу основных компонентов (PCA), и это еще не все. Здесь мы более подробно обрисовываем элементы, необходимые для реализации PCA. Помимо отсутствия некоторых наворотов, эта реализация не самая эффективная. Численная стабильность и улучшенные свойства памяти / вычислений означают, что алгоритм кодируется с использованием SVD (факторизация матрицы, отличная от спектрального разложения) для наиболее популярных реализаций, подробнее об этом позже. Мы..

VC: PCA (анализ главных компонентов)
Я объяснил, как мы визуализируем многомерные данные на 2D-графике. Дело не в уменьшении размерности. Этот пост и следующие посты объяснят, как мы встраиваем многомерные данные в низкоразмерное пространство. Я объясню PCA, Kernel PCA, MDS, ISOMAP и t-SNE. Этот пост расскажет вам все о PCA и Kernel PCA. PCA По сути, СПС пытается найти лучшую основу. Они ортогональны друг другу и являются лучшим представителем в зависимости от своей вариации. Расстояние от базиса PCA до исходных..