Подходящая мера для поиска наименьшей ковариационной матрицы


10

В учебнике, который я читаю, они используют положительную определенность (полуположительную определенность) для сравнения двух ковариационных матриц. Идея заключается в том , что если имеет полидисперсность , то меньше , чем . Но я изо всех сил пытаюсь получить интуицию этих отношений?ABBA

Здесь есть похожая тема:

/math/239166/what-is-the-intuition-for-using-definiteness-to-compare-matrices

Какова интуиция для использования определенности для сравнения матриц?

Хотя ответы хороши, они не обращаются к интуиции.

Вот пример, который я нахожу запутанным:

[1612129][1224]

теперь здесь определитель разности равен -25, поэтому отношение не pd или даже psd, и поэтому первая матрица не больше первой?

Я просто хочу сравнить две ковариационные матрицы 3 * 3, чтобы увидеть, какая из них наименьшая? Мне кажется более интуитивно понятным использовать что-то вроде евклидовой нормы для их сравнения? Однако это будет означать, что первая матрица выше, чем вторая матрица. Более того, я только когда-либо видел критерий pd / psd, используемый для сравнения ковариационных матриц.

Может кто-нибудь объяснить, почему pd / psd лучше, чем использование другой меры, такой как евклидова норма?

Я также разместил этот вопрос на форуме по математике (не был уверен, что было лучше) надеюсь, что это не противоречит каким-либо правилам.

/math/628135/comparing-two-covariance-matrices


2
Вы могли бы хотеть прочитать это, где интуиция позади положительной (полу) определенности рассматривается. При сравнении 2 отклонений aи b, если a-bположительно , то можно сказать , что при удалении вариабельности bиз aостается некоторые «реальной» вариабельность оставила в a. Аналогичным образом, это случай многомерных дисперсий (= ковариационных матриц) Aи B. Если A-Bон положительно определен, то это означает, что A-Bконфигурация векторов является «реальной» в евклидовом пространстве: другими словами, после удаления Bиз нее Aпоследняя остается жизнеспособной изменчивостью.
ttnphns

2
Что вы подразумеваете под «наименьшей» из двух ковариационных матриц?
whuber

Привет, ковариационные матрицы относятся к конкурирующим оценщикам, я хочу выбрать оценщик, который имеет наименьшую дисперсию. (Это проясняет ситуацию?)
Баз

2
Баз: Тогда почему бы не сравнить различия оценок непосредственно?
Glen_b

Привет, метод установлен, дано выражение для того, что они называют дисперсией (которая включает ковариации). Однако даже если бы я сравнивал только дисперсии, это все равно включало бы сравнение значений вектора, что будет иметь аналогичные проблемы при сравнении значений матрицы?
Баз

Ответы:


8

Упорядочение матриц, на которые вы ссылаетесь, называется порядком Лёвнера и является частичным порядком, широко используемым при изучении положительно определенных матриц. Книжная обработка геометрии на многообразии положительно определенных (posdef) матриц здесь .

Сначала я попытаюсь ответить на ваш вопрос об интуиции . (Симметричная) матрица является posdef, если для всех . Если - случайная величина (rv) с ковариационной матрицей , то (пропорциональна) ее проекции на некоторое одномерное подпространство и . Применяя это к в вашем Q, во-первых: это ковариационная матрица, во-вторых: случайная величина с коварной матрицей проецируется во всех направлениях с меньшей дисперсией, чем rv с ковариационной матрицейAcTAc0cRnXAcTXVar(cTX)=cTAcABBAA, Это делает интуитивно понятным, что этот порядок может быть только частичным, есть много rv, которые будут проецироваться в разных направлениях с дико разными отклонениями. Ваше предложение какой-то евклидовой нормы не имеет такой естественной статистической интерпретации.

Ваш "запутанный пример" сбивает с толку, потому что обе матрицы имеют нулевой определитель. Таким образом, для каждого есть одно направление (собственный вектор с собственным значением ноль), где они всегда проецируются на ноль . Но это направление отличается для двух матриц, поэтому их нельзя сравнивать.

Порядок Лёвнера определяется так, что , более положительно определен, чем , если является posdef. Это частичный порядок, для некоторых матриц posdef ни ни являются posdef. Пример: Один из способов графически это показывает чертеж с двумя эллипсами, но с центром в начале координат, стандартным образом связанным с матрицами (тогда радиальное расстояние в каждом направлении пропорционально дисперсии проецирования в этом направлении):ABBABABAAB

A=(10.50.51),B=(0.5001.5)

Две матрицы posdef показаны в виде эллипсов

В этом случае два эллипса являются конгруэнтными, но вращаются по-разному (фактически угол составляет 45 градусов). Это соответствует тому факту, что матрицы и имеют одинаковые собственные значения, но собственные векторы вращаются.AB

Поскольку этот ответ во многом зависит от свойств эллипсов, следующий Что такое интуиция за условными гауссовыми распределениями? объяснение эллипсов геометрически, может быть полезно.

Теперь я объясню, как определяются эллипсы, связанные с матрицами. Матрица posdef определяет квадратичную форму . Это можно построить как функцию, график будет квадратичным. Если то график всегда будет выше графика . Если мы разрежем графики с горизонтальной плоскостью на высоте 1, то разрезы будут описывать эллипсы (это фактически способ определения эллипсов). Эти эллипсы разреза задаются уравнениями и мы видим, чтоAQA(c)=cTAcABQBQA

QA(c)=1,QB(c)=1
ABсоответствует эллипсу B (теперь с внутренним пространством), содержащемуся в эллипсе A. Если нет порядка, не будет никакого сдерживания. Мы наблюдаем, что порядок включения противоположен частичному порядку Лёвнера, если нам не нравится, что мы можем нарисовать эллипсы из обратных. Это потому, что эквивалентен . Но я останусь с эллипсами, как определено здесь.ABB1A1

Эллипс можно описать с помощью полуосей и их длины. Мы будем обсуждать здесь только -матрицы, так как они те, которые мы можем нарисовать ... Итак, нам нужны две главные оси и их длина. Это может быть найдено, как объяснено здесь с помощью собственного разложения матрицы posdef. Тогда главные оси задаются собственными векторами, а их длина может быть вычислена из собственных значений как Также можно видеть, что площадь эллипса, представляющего равна .2×2a,bλ1,λ2

a=1/λ1,b=1/λ2.
Aπab=π1/λ11/λ2=πdetA

Я приведу один последний пример, где можно заказать матрицы:

Две матрицы, которые можно упорядочить в виде эллипсов

В этом случае две матрицы:

A=(2/31/51/53/4),B=(11/71/71)


3

@kjetil b halvorsen дает хорошее обсуждение геометрической интуиции за положительной полуопределенностью как частичного упорядочения. Я дам более грубый взгляд на ту же интуицию. Тот, который исходит из того, какие виды вычислений вы хотели бы сделать с вашими матрицами дисперсии.

Предположим, у вас есть две случайные величины и . Если они являются скалярами, то мы можем вычислить их дисперсии как скаляры и сравнить их очевидным образом, используя скалярные действительные числа и . Поэтому, если и , мы говорим, что случайная величина имеет меньшую дисперсию, чем .xyV(x)V(y)V(x)=5V(y)=15xy

С другой стороны, если и являются векторными случайными величинами (скажем, они являются двумя векторами), то, как мы сравниваем их дисперсии, не так очевидно. Скажите, что их отклонения: Как мы сравниваем дисперсии этих двух случайных векторов? Одна вещь, которую мы могли бы сделать, это просто сравнить дисперсии их соответствующих элементов. Таким образом, мы можем сказать, что дисперсия меньше, чем дисперсия , просто сравнивая действительные числа, например: иxy

V(x)=[10.50.51]V(y)=[8336]
x1y1V(x1)=1<8=V(y1)V(x2)=1<6=V(y2), Таким образом, возможно, мы могли бы сказать, что дисперсия является дисперсией если дисперсия каждого элемента является дисперсией соответствующего элемента . Это было бы как сказать если каждый из диагональных элементов является соответствующим диагональным элементом .xyxyV(x)V(y)V(x)V(y)

Это определение кажется разумным на первый взгляд. Кроме того, поскольку матрицы дисперсий, которые мы рассматриваем, являются диагональными (т. Е. Все ковариации равны 0), это то же самое, что и использование полуопределенности. То есть, если отклонения выглядят как затем произнесите является положительно-полуопределенным (то есть, что ) - это то же самое, что сказать и . Все кажется хорошим, пока мы не введем ковариации. Рассмотрим этот пример:

V(x)=[V(x1)00V(x2)]V(y)=[V(y1)00V(y2)]
V(y)V(x)V(x)V(y)V(x1)V(y1)V(x2)V(y2)
V(x)=[10.10.11]V(y)=[1001]
Теперь, используя сравнение, которое учитывает только диагонали, мы бы сказали и, действительно, все еще верно, что поэлементно . Что может начать беспокоить нас об этом, так это то, что если мы вычислим некоторую взвешенную сумму элементов векторов, например и , то мы с тем, что хотя мы говорим .V(x)V(y)V(xk)V(yk)3x1+2x23y1+2y2V(3x1+2x2)>V(3y1+2y2)V(x)V(y)

Это странно, правда? Когда и являются скаляры, то гарантирует , что при любом фиксированном, неслучайное , .xyV(x)V(y)aV(ax)V(ay)

Если по какой-либо причине нас интересуют линейные комбинации элементов случайных величин, подобные этой, то мы можем усилить наше определение для дисперсионных матриц. Может быть, мы хотим сказать тогда и только тогда, когда верно, что , независимо от того, какие фиксированные числа и мы выберем. Обратите внимание, что это более сильное определение, чем определение только по диагонали, поскольку, если мы выбираем оно говорит , а если мы выбираем оно говорит .V(x)V(y)V(a1x1+a2x2)V(a1y1+a2y2)a1a2a1=1,a2=0V(x1)V(y1)a1=0,a2=1V(x2)V(y2)

Это второе определение, которое говорит тогда и только тогда, когда для каждого возможного фиксированного вектора , является обычным методом сравнения дисперсии матрицы, основанные на положительной полуопределенности: Посмотрите на последнее выражение и определение положительного полуопределения, чтобы убедиться, что определение для дисперсионных матриц выбрано именно так, чтобы гарантировать, что тогда и только тогда, когда для любого выбора , т. е. когда положительно полу -definite.V(x)V(y)V(ax)V(ay)a

V(ay)V(ax)=aV(x)aaV(y)a=a(V(x)V(y))a
V(x)V(y)V(ax)V(ay)a(V(y)V(x))

Итак, ответ на ваш вопрос заключается в том, что люди говорят, что матрица дисперсии меньше, чем матрица дисперсии если является положительной полуопределенностью, потому что они заинтересованы в сравнении дисперсий линейных комбинаций элементов лежащих в основе случайных векторов. Какое определение вы выбираете, следует тому, что вас интересует в вычислениях, и как это определение помогает вам в этих вычислениях.VWWV

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.