Вопросы с тегом «dimensionality-reduction»

Относится к методам сокращения большого количества переменных или измерений, охватываемых данными, до меньшего числа измерений, сохраняя при этом как можно больше информации о данных. Известные методы включают PCA, MDS, Isomap и т. Д. Два основных подкласса методов: извлечение признаков и выбор функций.

3
PCA слишком медленный, когда оба n, p большие: альтернативы?
Настройка проблемы У меня есть данные (изображения) высокой размерности (4096), которые я пытаюсь визуализировать в 2D. С этой целью я использую t-sne способом, подобным следующему примеру кода Karpathy . Документация Scikit-Learn рекомендует использовать PCA, чтобы сначала уменьшить размерность данных: Настоятельно рекомендуется использовать другой метод уменьшения размерности (например, PCA для плотных …

1
В чем разница между многообразным обучением и нелинейным уменьшением размерности?
В чем разница между многообразным обучением и нелинейным уменьшением размерности ? Я видел эти два термина взаимозаменяемо. Например: http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html : Изучение многообразия (часто также называемое нелинейным уменьшением размерности) преследует цель встраивать данные, которые изначально лежат в многомерном пространстве, в низкоразмерное пространство, сохраняя при этом характерные свойства. http://www.stat.washington.edu/courses/stat539/spring14/Resources/tutorial_nonlin-dim-red.pdf : В этом …

2
Понимание этого PCA графика продаж мороженого в зависимости от температуры
Я беру фиктивные данные о температуре и продажах мороженого и классифицирую их по K-средним (n кластеров = 2), чтобы выделить 2 категории (полностью фиктивные). Сейчас я делаю анализ основных компонентов этих данных, и моя цель - понять, что я вижу. Я знаю, что цель PCA состоит в том, чтобы уменьшить …

2
Масштабируемое уменьшение размера
Учитывая постоянное число функций, t-SNE Барнса-Хата имеет сложность , случайные проекции и PCA имеют сложность что делает их «доступными» для очень больших наборов данных.O ( n logн )О(Nжурнал⁡N)O(n\log n)O ( n )О(N)O(n) С другой стороны, методы, основанные на многомерном масштабировании, имеют сложность .O ( n2)О(N2)O(n^2) Существуют ли другие методы уменьшения …

1
Невозможно заставить эту сеть автоэнкодера функционировать должным образом (со сверточным и максимальным уровнями)
Автоэнкодерные сети кажутся более хитрыми, чем обычные классификаторы MLP сетей. После нескольких попыток использования лазаньи все, что я получаю в восстановленном выводе, в чем-то напоминает размытое усреднение всех изображений базы данных MNIST без различия того, что представляет собой входная цифра. Структура сетей, которую я выбрал, представляет собой следующие каскадные слои: …

2
Как доказать правильность предположения о многообразии?
В машинном обучении часто предполагается, что набор данных лежит на гладком низкоразмерном многообразии (предположение о многообразии), но есть ли способ доказать, что при условии выполнения определенных условий набор данных действительно (приблизительно) генерируется из низкоразмерного гладкого многообразия? Например, учитывая последовательность данных где (скажем, последовательность изображений лиц с разными углами) и соответствующая …

3
Требуется ли ICA для запуска PCA в первую очередь?
Я просмотрел документ на основе заявления о том, что применение PCA перед применением ICA (с использованием пакета fastICA). У меня вопрос, требует ли ICA (fastICA) сначала запуск PCA? В этой статье упоминается, что ... также утверждается, что предварительное применение PCA повышает производительность ICA за счет (1) отбрасывания небольших конечных собственных …

4
Неортогональная техника, аналогичная PCA
Предположим, у меня есть набор точечных данных 2D, и я хочу определить направления всех локальных максимумов дисперсии в данных, например: PCA не помогает в этой ситуации, так как это ортогональное разложение и, следовательно, не может обнаружить обе линии, которые я указал синим цветом, скорее его вывод может выглядеть так, как …

2
Перекошенные переменные в PCA или факторный анализ
Я хочу провести анализ основных компонентов (факторный анализ) по SPSS на основе 22 переменных. Однако некоторые из моих переменных очень искажены (асимметрия, рассчитанная по SPSS, колеблется от 2 до 80!). Итак, вот мои вопросы: Должен ли я оставить таким образом перекошенные переменные или я могу преобразовать переменные при анализе главных …


1
Как интерпретировать результаты уменьшения размерности / многомерного масштабирования?
Я выполнил декомпозицию SVD и многомерное масштабирование 6-мерной матрицы данных, чтобы лучше понять структуру данных. К сожалению, все сингулярные значения имеют один и тот же порядок, подразумевая, что размерность данных действительно равна 6. Однако я хотел бы иметь возможность интерпретировать значения сингулярных векторов. Например, первый кажется более или менее равным …
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.