Вопросы с тегом «manifold-learning»

3
Что такое коллектор?
В технике уменьшения размерности, такой как анализ главных компонентов, LDA и т. Д., Часто используется термин «многообразие». Что такое многообразие в нетехническом термине? Если точка принадлежит сфере, размер которой я хочу уменьшить, и если есть шум y, а x и y некоррелированы, то фактические точки x будут далеко отделены друг …

2
Как понимать «нелинейный» как «нелинейное уменьшение размерности»?
Я пытаюсь понять различия между методами уменьшения линейной размерности (например, PCA) и нелинейными (например, Isomap). Я не совсем понимаю, что подразумевает (не) линейность в этом контексте. Я прочитал из Википедии, что Для сравнения, если PCA (алгоритм линейного уменьшения размерности) используется для сокращения этого же набора данных в два измерения, результирующие …

2
Каково многообразное допущение в обучении под наблюдением?
Я пытаюсь выяснить, что означает многообразное допущение в обучении под наблюдением. Кто-нибудь может объяснить по-простому? Я не могу получить интуицию за этим. Это говорит о том, что ваши данные лежат на многомерном многообразии, вложенном в многомерное пространство. Я не понял, что это значит.

2
Графическая интуиция статистики на многообразии
На этом посте вы можете прочитать заявление: Модели обычно представлены точками θθ\theta на конечномерном многообразии. В дифференциальной геометрии и статистике Майкла К. Мюррея и Джона В. Райса эти понятия объясняются в прозе, читаемой даже без учета математических выражений. К сожалению, иллюстраций очень мало. То же самое касается этого поста на …

1
Как выбрать ядро ​​для ядра PCA?
Какими способами можно выбрать, какое ядро ​​приведет к хорошему разделению данных при окончательном выводе данных ядром PCA (анализ основных компонентов), и как оптимизировать параметры ядра? Условия Лаймана, если это возможно, будут высоко оценены, и ссылки на статьи, которые объясняют такие методы, также были бы хорошими.

1
В чем разница между многообразным обучением и нелинейным уменьшением размерности?
В чем разница между многообразным обучением и нелинейным уменьшением размерности ? Я видел эти два термина взаимозаменяемо. Например: http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html : Изучение многообразия (часто также называемое нелинейным уменьшением размерности) преследует цель встраивать данные, которые изначально лежат в многомерном пространстве, в низкоразмерное пространство, сохраняя при этом характерные свойства. http://www.stat.washington.edu/courses/stat539/spring14/Resources/tutorial_nonlin-dim-red.pdf : В этом …

2
Как доказать правильность предположения о многообразии?
В машинном обучении часто предполагается, что набор данных лежит на гладком низкоразмерном многообразии (предположение о многообразии), но есть ли способ доказать, что при условии выполнения определенных условий набор данных действительно (приблизительно) генерируется из низкоразмерного гладкого многообразия? Например, учитывая последовательность данных где (скажем, последовательность изображений лиц с разными углами) и соответствующая …
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.