Публикации по теме 'dimensionality-reduction'


Принципиальный компонентный анализ (PCA) — это просто!
Введение В этом посте рассматривается концепция анализа основных компонентов ( PCA ). PCA – это метод признака или размерности . Функции — это элементы, значения которых мы используем для каждой выборки данных, используемой для обучения. Рассмотрим следующий пример: мы хотим иметь модель машинного обучения ( ML ) для прогнозирования цен на дома на основе их других характеристик. Эти характеристики называются функциями . Характеристики также называются измерениями. Каждую функцию..

Введение в анализ основных компонентов в машинном обучении
Введение Вы спросите, зачем изучать PCA? Ну, позвольте мне рассказать вам небольшую историю. Представьте, что вы детектив, пытающийся раскрыть преступление. У вас есть куча улик и доказательств, но они повсюду, и вы не знаете, с чего начать. Что вы делаете? Введите PCA. PCA — это алгоритм машинного обучения, который может помочь вам разобраться во всех этих данных. Он может автоматически находить наиболее важные закономерности и тенденции в данных и представлять их вам в простом и..

Обучение нейронному многообразию — Раскрытие нейронной динамики в подпространстве нижнего измерения — …
Мы отслеживаем и наблюдаем за нейронной активностью, чтобы получить представление о поведении, когнитивных функциях и практически любой другой деятельности, контролируемой мозгом. В прошлом исследователи в основном делали эти открытия, измеряя один нейрон по отношению к заданной задаче. Тем не менее, по мере того, как проводилось все больше и больше исследований функций мозга и нейронов, стало ясно, что каждое действие или задача не является следствием возбуждения одного нейрона, а,..

Методы уменьшения размерности
Введение В машинном обучении и анализе данных методы уменьшения размерности играют решающую роль в упрощении сложных наборов данных. Эти методы направлены на сокращение количества функций или переменных в наборе данных при сохранении важной информации. Уменьшая размерность, мы можем повысить эффективность вычислений, устранить шум и повысить производительность моделей машинного обучения. В этой статье мы рассмотрим некоторые популярные методы уменьшения размерности и обсудим их..

Линейный дискриминант Фишера: интуитивное объяснение
Основы машинного обучения Линейный дискриминант Фишера: интуитивное объяснение Интуитивное объяснение линейного дискриминанта Фишера, основы линейного дискриминантного анализа LDA — это широко используемый метод уменьшения размерности, основанный на линейном дискриминанте Фишера. Эти концепции лежат в основе теории машинного обучения. В этой статье я рассмотрю пример классификатора, использующего линейный дискриминант Фишера, и получу оптимальное решение для критерия Фишера...

Проклятие размерности
Введение В машинном обучении широко распространены многомерные наборы данных. Визуализация невозможна, когда набор данных находится в многомерном пространстве. Таким образом, уменьшение пространства более высоких измерений в пространство более низких измерений становится важной частью машинного обучения. Мы можем уменьшить размер двумя способами: Выбор функций - выбор важных функций, имеющих отношение к модели (это позволяет избежать проклятия размерности). Извлечение признаков..

Уменьшение размерности с помощью линейного дискриминанта Фишера
Исследование границ решений Введение В задачах классификации каждый входной вектор x относится к одному из K дискретных классов C k . Входное пространство разделено на области решений, границы которых называются границами решений. Наборы данных (набор входных векторов), классы которых могут быть точно разделены линейными границами решений, называются линейно разделимыми. Один из простейших подходов, используемых в задачах классификации, включает построение дискриминантных функций,..