Контролируемое уменьшение размерности


13

У меня есть набор данных, состоящий из 15K помеченных образцов (из 10 групп). Я хочу применить уменьшение размерности к двум измерениям, которые бы учитывали знание меток.

Когда я использую «стандартные» неконтролируемые методы уменьшения размерности, такие как PCA, график рассеяния, кажется, не имеет ничего общего с известными метками.

У того, что я ищу, есть имя? Я хотел бы прочитать некоторые ссылки решений.


3
Если вы ищете линейные методы, то вам следует использовать линейный дискриминантный анализ (LDA).
амеба говорит восстановить монику

@amoeba: Спасибо. Я использовал это, и это работало намного лучше!
Рой

Рад, что это помогло. Я дал краткий ответ с некоторыми дальнейшими ссылками.
амеба говорит восстановить монику

1
Одной из возможностей было бы сначала сократить до девятимерного пространства, охватывающего центроиды класса, а затем использовать PCA для дальнейшего уменьшения до двух измерений.
А. Донда

Связанный: stats.stackexchange.com/questions/16305 (возможно, дубликат, хотя, возможно, и наоборот. Я вернусь к этому после того, как обновлю свой ответ ниже.)
амеба говорит Восстановить Монику

Ответы:


27

Самый стандартный линейный метод контролируемого уменьшения размерности называется линейным дискриминантным анализом (LDA). Он предназначен для поиска низкоразмерной проекции, которая максимизирует разделение классов. Вы можете найти много информации об этом в нашем теге и в любом учебнике по машинному обучению, например, в свободном доступе «Элементы статистического обучения» .

Вот картинка, которую я нашел здесь с помощью быстрого поиска в Google; он показывает одномерные проекции PCA и LDA, когда в наборе данных есть два класса (источник добавлен мной):

PCA против LDA

Другой подход называется частичным наименьшим квадратом (PLS). LDA можно интерпретировать как поиск прогнозов, имеющих наивысшую корреляцию с фиктивными переменными, кодирующими метки групп (в этом смысле LDA можно рассматривать как частный случай канонического корреляционного анализа, CCA). Напротив, PLS ищет прогнозы, имеющие наибольшую ковариацию с групповыми метками. В то время как LDA дает только 1 ось для случая двух групп (как на картинке выше), PLS найдет много осей, упорядоченных по убывающей ковариации. Обратите внимание, что когда в наборе данных присутствует более двух групп, существуют разные «разновидности» PLS, которые дают несколько разные результаты.

Обновление (2018)

Я должен найти время, чтобы расширить этот ответ; эта тема кажется популярной, но мой оригинальный ответ очень короткий и недостаточно подробный.

В то же время я упомяну анализ компонентов соседства - линейный метод, который находит проекцию, максимизирующую точность классификации ближайших соседей. Существует нелинейное обобщение с использованием нейронных сетей, см. Изучение нелинейного встраивания путем сохранения структуры соседства классов . Можно также использовать классификаторы нейронных сетей с узким местом, см. Классификаторы глубокого узкого места в контролируемом уменьшении размеров .К


1
хорошая графика, многое объясняет
Titou
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.