Вопросы с тегом «discriminant-analysis»

Линейный дискриминантный анализ (LDA) - это метод уменьшения размерности и классификации. Он находит низкоразмерное подпространство с самым сильным разделением классов и использует его для выполнения классификации. Используйте этот тег и для квадратичного DA (QDA).

2
Логистическая регрессия против LDA как классификаторы двух классов
Я пытаюсь обернуть голову вокруг статистической разницы между линейным дискриминантным анализом и логистической регрессией . Правильно ли я понимаю, что для двух классов задачи классификации LDA предсказывает две функции нормальной плотности (по одной для каждого класса), которые создают линейную границу, где они пересекаются, тогда как логистическая регрессия только предсказывает нечетно-логическую …

2
Почему Python scikait-learn LDA не работает правильно и как он вычисляет LDA через SVD?
Я использовал Линейный Дискриминантный Анализ (LDA) из scikit-learnбиблиотеки машинного обучения (Python) для уменьшения размерности, и мне было немного интересно узнать о результатах. Теперь мне интересно, что scikit-learnделает LDA , чтобы результаты выглядели иначе, чем, например, ручной подход или LDA, выполненные в R. Было бы здорово, если бы кто-то мог дать …

2
Три версии дискриминантного анализа: различия и как их использовать
Кто-нибудь может объяснить различия и привести конкретные примеры, как использовать эти три анализа? LDA - линейный дискриминантный анализ FDA - дискриминантный анализ Фишера QDA - Квадратичный дискриминантный анализ Я искал везде, но не смог найти реальных примеров с реальными значениями, чтобы увидеть, как используются эти анализы и как рассчитываются данные, …

1
PCA, LDA, CCA и PLS
Как связаны PCA, LDA, CCA и PLS? Все они кажутся «спектральными» и линейными алгебраическими и очень хорошо понятными (скажем, 50+ лет теории, построенной вокруг них). Они используются для самых разных вещей (PCA для уменьшения размерности, LDA для классификации, PLS для регрессии), но все же они чувствуют себя очень тесно связанными.

2
Есть ли смысл объединять PCA и LDA?
Предположим, у меня есть набор данных для контролируемой статистической задачи классификации, например, через байесовский классификатор. Этот набор данных состоит из 20 функций, и я хочу свести его к 2 функциям с помощью методов уменьшения размерности, таких как анализ основных компонентов (PCA) и / или линейный дискриминантный анализ (LDA). Оба метода …

4
Какова связь между регрессией и линейным дискриминантным анализом (LDA)?
Существует ли связь между регрессией и линейным дискриминантным анализом (LDA)? Каковы их сходства и различия? Имеет ли какое-то значение, если есть два класса или более двух классов?

1
Как LDA, метод классификации, также служит методом уменьшения размерности, как PCA
В этой статье автор связывает линейный дискриминантный анализ (LDA) с анализом главных компонентов (PCA). С моими ограниченными знаниями я не могу понять, как LDA может быть чем-то похожим на PCA. Я всегда думал, что LDA - это форма алгоритма классификации, похожая на логистическую регрессию. Я буду признателен за помощь в …

1
Вычислить и наметить границу решения LDA
Я видел сюжет LDA (линейный дискриминантный анализ) с границами решения из «Элемента статистического обучения» : Я понимаю, что данные проецируются на низкоразмерное подпространство. Тем не менее, я хотел бы знать, как мы получаем границы решений в исходном измерении, чтобы я мог проецировать границы решений на подпространство более низкого измерения (как …

1
Как MANOVA связана с LDA?
В нескольких местах я видел утверждение о том, что MANOVA похожа на ANOVA плюс линейный дискриминантный анализ (LDA), но он всегда выполнялся в виде ручного махания. Я хотел бы знать, что именно это должно означать. Я нашел различные учебники, описывающие все детали вычислений MANOVA, но, кажется, очень трудно найти хорошее …

2
Как линейный дискриминантный анализ уменьшает размеры?
Есть слова из «Элементы статистического обучения» на странице 91: K-центроиды в p-мерном входном пространстве охватывают самое большее K-1-мерное подпространство, и если p намного больше K, это приведет к значительному уменьшению размера. У меня есть два вопроса: Почему K-центроиды в p-мерном входном пространстве охватывают самое большее K-1-мерное подпространство? Как расположены центроиды …

2
Что такое «коэффициенты линейных дискриминантов» в LDA?
В R, я использую ldaфункцию из библиотеки, MASSчтобы сделать классификацию. Как я понимаю LDA, входу будет присвоен ярлык , что максимизирует , верно?ИксИксxYYyр ( у| х)п(Y|Икс)p(y|x) Но когда я к модели, в которой я не совсем понимаю вывод , х = ( Л а г1 , L a g2 )Иксзнак …

3
Коллинеарные переменные в обучении LDA Multiclass
Я тренирую многоклассный классификатор LDA с 8 классами данных. Во время обучения я получаю предупреждение: « Переменные коллинеарны » Я получаю точность обучения более 90% . Я использую библиотеку scikits-learn в Python, обучаю и проверяю данные мультикласса . Я также получаю приличную точность тестирования (около 85% -95% ). Я не …

3
Дискриминантный анализ против логистической регрессии
Я нашел некоторые плюсы дискриминантного анализа, и у меня есть вопросы о них. Так: Когда классы хорошо разделены, оценки параметров для логистической регрессии удивительно нестабильны. Коэффициенты могут уходить в бесконечность. LDA не страдает от этой проблемы. Если число признаков мало и распределение предикторов ИксИксX приблизительно нормальное в каждом из классов, …

2
Можем ли мы использовать категориальную независимую переменную в дискриминантном анализе?
В дискриминантном анализе зависимая переменная является категориальной, но могу ли я использовать категориальную переменную (например, статус проживания: сельский, городской) вместе с некоторой другой непрерывной переменной в качестве независимой переменной в линейном дискриминантном анализе?

1
Получение общей (в пределах класса + между классами) матрицы рассеяния
Я возился с методами PCA и LDA, и я застрял в какой-то момент, у меня такое ощущение, что это так просто, что я не вижу этого. Матрицы рассеяния внутри класса ( ) и между классами ( S B ) определяются как:SWSWS_WSBSBS_B SW=∑i=1C∑t=1N(xit−μi)(xit−μi)TSW=∑i=1C∑t=1N(xti−μi)(xti−μi)T S_W = \sum_{i=1}^C\sum_{t=1}^N(x_t^i - \mu_i)(x_t^i - \mu_i)^T SB=∑i=1CN(μi−μ)(μi−μ)TSB=∑i=1CN(μi−μ)(μi−μ)T …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.