Публикации по теме 'apc'


Уменьшение линейной размерности - PCA
Оглавление 1. Введение 2. Математический вывод 3. Заключение ранее были кратко представлены различные DRT, в этой главе мы рассмотрим математические рабочие детали одной из Техники уменьшения линейной размерности и, вероятно, самой популярной из них, которая называется Анализ главных компонентов . Обычно я работаю по восходящей схеме w.r.t. простота проекта машинного обучения, поэтому, будь то сама модель или этап предварительной обработки, я начинаю с линейных..

Алгоритмы итеративного поиска (вперед, назад и пошагово) с использованием множественной регрессии
Существует три алгоритма итеративного поиска, в которых количество переменных для модели выбирается, на основе которых модель будет работать, на основе количества значимости переменных, которые могут быть основаны на R-квадрате, а также на скорректированном R-квадрате. Мы также можем уменьшить количество переменных, используя (PCA) анализ основных компонентов, а также регрессионные подходы. Прямой выбор начинается без предикторов и добавляет один за другим, и останавливает процесс, когда..

Анализ главных компонентов
Анализ главных компонентов (PCA) - это простой, но популярный и полезный метод линейного преобразования. PCA преобразует данные из одного пространства признаков в другое пространство признаков низкой размерности. Преобразованное пространство признаков должно быть в состоянии объяснить большую часть дисперсии исходного набора данных путем сокращения переменных. Последние переменные будут названы главным компонентом. Давайте разберемся с этим проще. Рассмотрим проблему классификации..

Общие методы извлечения признаков: PCA и LDA
В машинном обучении извлечение признаков проецирует начальный набор функций из пространства большой размерности в сокращенный набор функций из пространства низкой размерности, при этом описывая данные с достаточной точностью. Алгоритмы выбора характеристик могут быть линейными или нелинейными. Нелинейные методы предполагают, что интересующие данные лежат на вложенном нелинейном многообразии в многомерном пространстве. Если коллектор имеет достаточно низкую размерность, мы могли бы..

Анализ боевых стилей UFC с помощью машинного обучения
Как давний мастер боевых искусств и фанат ММА, я наблюдал за развитием спорта, известного как смешанные единоборства, от соревнования двух старых боевых стилей до настоящего спорта, где участники берут то, что работает в каждом боевом искусстве, и адаптируют его к своим боям. способности лучше всего служить им, когда сталкиваемся с другими обученными убийцами. Из первых UFC, где бойцы были строгими боксерами, рестлерами, практикующими джиу-джитсу или крутыми парнями, спорт превратился в..

Почему и как реализован PCA
«Проклятие размерности», на мой родной язык (телугу) переводится как «колатхала йока саапам» звучит как голливудский дублированный фильм ужасов. Это явление часто называют проблемами, возникающими при работе с данными в высших измерениях. , которого не было в низших измерениях. В худшем случае набор данных может иметь большое количество признаков или измерений. По мере увеличения количества функций визуализация (более высокие размеры невозможны) или обучение становятся более сложными,..

Уменьшение размерности и визуализация - PCA - Часть-2
Эта статья является продолжением серии статей о снижении размерности и визуализации. Если вы еще не прошли часть 1, я настоятельно рекомендую вам сначала пройти ее здесь . В этой статье мы поймем один такой метод уменьшения размерности, называемый анализом главных компонентов (PCA). Помните, что цель уменьшения размерности - найти низкоразмерное представление данных, в котором сохраняется как можно больше информации. Прежде чем погрузиться в математическое представление PCA, давайте..