Как линейный дискриминантный анализ уменьшает размеры?


18

Есть слова из «Элементы статистического обучения» на странице 91:

K-центроиды в p-мерном входном пространстве охватывают самое большее K-1-мерное подпространство, и если p намного больше K, это приведет к значительному уменьшению размера.

У меня есть два вопроса:

  1. Почему K-центроиды в p-мерном входном пространстве охватывают самое большее K-1-мерное подпространство?
  2. Как расположены центроиды K?

Там нет объяснения в книге, и я не нашел ответа из соответствующих работ.


3
В центроиды лежат в не более мерного аффинного подпространства. Например, две точки лежат на прямой, мерном подпространстве. Это просто определение аффинного подпространства и некоторой элементарной линейной алгебры. К - 1КК-12-1
deinst

Очень похожий вопрос: stats.stackexchange.com/q/169436/3277 .
ttnphns

Ответы:


16

Дискриминанты - это оси и скрытые переменные, которые наиболее сильно дифференцируют классы. Число возможных дискриминантов равно . Например, при k = 3 классах в p = 2-мерном пространстве может существовать не более 2 дискриминантов, как на графике ниже. (Обратите внимание, что дискриминанты не обязательно являются ортогональными как оси, нарисованные в исходном пространстве, хотя они, как переменные, некоррелированы.) Центроиды классов расположены в подпространстве дискриминанта в соответствии с их перпендикулярными координатами на дискриминантах.мяN(К-1,п)

введите описание изображения здесь

Алгебра LDA на этапе извлечения здесь .


Хороший график, какое программное обеспечение / пакет вы использовали для его создания?
Мишель

SPSS. Самописный макрос для SPSS.
ttnphns

Означает ли это, что вы не увидите хорошего разделения классов в LDA, скажем, с тремя классами с перекрытием, пока вы не изменили масштаб оси? Я имею в виду, что у меня LDA, и мои классы разделены ... но они находятся на вершине друг друга по каждой оси различения, кроме первой ... и эта огромна.
Донлан

14

Хотя «Элементы статистического обучения» - блестящая книга, для ее получения требуется относительно высокий уровень знаний. В Интернете есть много других ресурсов, которые помогут вам понять темы книги.

Давайте возьмем очень простой пример линейного дискриминантного анализа, где вы хотите сгруппировать набор двумерных точек данных в группы K = 2. Падение размеров будет только K-1 = 2-1 = 1. Как объясняет @deinst, падение размеров можно объяснить с помощью элементарной геометрии.

Две точки в любом измерении могут быть соединены линией, и линия является одномерной. Это пример K-1 = 2-1 = 1-мерного подпространства.

Теперь в этом простом примере множество точек данных будет разбросано в двухмерном пространстве. Точки будут представлены (x, y), поэтому, например, у вас могут быть такие точки данных, как (1,2), (2,1), (9,10), (13,13). Теперь использование линейного дискриминантного анализа для создания двух групп A и B приведет к тому, что точки данных будут классифицированы как принадлежащие группе A или группе B, так что определенные свойства будут удовлетворены. Линейный дискриминантный анализ пытается максимизировать дисперсию между группами по сравнению с дисперсией внутри групп.

Другими словами, группы A и B будут находиться далеко друг от друга и содержать точки данных, которые расположены близко друг к другу. В этом простом примере ясно, что точки будут сгруппированы следующим образом. Группа A = {(1,2), (2,1)} и Группа B = {(9,10), (13,13)}.

Теперь центроиды рассчитываются как центроиды групп точек данных, так

Centroid of group A = ((1+2)/2, (2+1)/2) = (1.5,1.5) 

Centroid of group B = ((9+13)/2, (10+13)/2) = (11,11.5)

Центроиды - это просто 2 точки, и они охватывают одномерную линию, которая соединяет их вместе.

фигура 1

Вы можете думать о линейном дискриминантном анализе как о проекции точек данных на линию так, чтобы две группы точек данных были «максимально разделены»

Если бы у вас было три группы (скажем, трехмерные точки данных), вы бы получили три центроида, просто три точки и три точки в трехмерном пространстве, определяющие двухмерную плоскость. Опять правило К-1 = 3-1 = 2 размера.

Я предлагаю вам поискать в Интернете ресурсы, которые помогут объяснить и расширить простое введение, которое я дал; например http://www.music.mcgill.ca/~ich/classes/mumt611_07/classifiers/lda_theory.pdf


1
Добро пожаловать на наш сайт, Мартино!
whuber

спасибо @whuber, хороший график, у меня не было таких инструментов под рукой :(
martino

Я не думал, что у тебя была репутация публиковать изображение в любом случае, Мартино: поэтому я сделал его для тебя. Но сейчас или скоро у вас будет достаточно представителей. Если ничего не удобно, вы можете использовать свободно доступное программное обеспечение с возможностями геометрического рисования, например, R или Geogebra . (Вы увидите, что иллюстрированные ответы привлекают больше внимания: они более привлекательны и читабельны.)
whuber

Почему отрицательный голос? Если есть проблема с ответом, было бы полезно указать на это - я не вижу одного
martino
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.