Независимость - это статистическая концепция. Две случайные величины и Y являются статистически независимыми, если их совместное распределение является произведением маргинальных распределений, т.е.
f ( x , y ) = f ( x ) f ( y ),
если каждая переменная имеет плотность f , или, в более общем случае,
F ( х , у ) = F ( х ) F ( у )
где FXY
f(x,y)=f(x)f(y)
fF(x,y)=F(x)F(y)
F обозначает кумулятивную функцию распределения каждой случайной величины.
ρ=E[X−E[X]E[(X−E[X])2]−−−−−−−−−−−−√Y−E[Y]E[(Y−E[Y])2]−−−−−−−−−−−−√].
ρ=0
uv⟨u,v⟩
⟨u,v⟩=0.
u=(u1,u2,…un)⟨u,v⟩=∑ni=1uivi
Ортогональность, следовательно, не является статистическим понятием как таковым, и наблюдаемая вами путаница, вероятно, обусловлена различными переводами понятия линейной алгебры в статистику:
⟨ X, Y⟩ = C o v ( X, Y) = E [ ( X- E [ X] ) ( Y- E [ Y] ) ] .
Поскольку корреляция двух случайных величин равна нулю точно, если ковариация равна нулю,
согласно этому определению некоррелированность такая же, как ортогональность. (Другая возможность состоит в том, чтобы определить внутреннее произведение случайных величин просто как
ожидаемое произведение .)
б) Не все переменные, которые мы рассматриваем в статистике, являются случайными. Особенно в линейной регрессии, у нас есть независимые переменные, которые не считаются случайными, но предопределены. Независимые переменные обычно задаются в виде последовательностей чисел, для которых ортогональность естественным образом определяется скалярным произведением (см. Выше). Затем мы можем исследовать статистические последствия регрессионных моделей, где независимые переменные являются или не являются ортогональными. В этом контексте ортогональность не имеет конкретно статистического определения, а тем более: она не распространяется на случайные величины.
Дополнение в ответ на комментарий Silverfish : Ортогональность важна не только по отношению к исходным регрессорам, но и по отношению к контрастам, потому что (наборы) простых контрастов (определяемых векторами контрастности) могут рассматриваться как преобразования матрицы проекта, то есть набора независимых переменных, в новый набор независимых переменных. Ортогональность для контрастов определяется через скалярное произведение. Если исходные регрессоры взаимно ортогональны и один применяет ортогональные контрасты, новые регрессоры также взаимно ортогональны. Это гарантирует, что набор контрастов можно рассматривать как описание разложения дисперсии, например, на основные эффекты и взаимодействия, идею, лежащую в основе ANOVA .
Поскольку в соответствии с вариантом а) некоррелированность и ортогональность - это просто разные названия одной и той же вещи, на мой взгляд, лучше избегать использования термина в этом смысле. Если мы хотим поговорить о некоррелированности случайных величин, скажем так, а не усложняем ситуацию, используя другое слово с другим фоном и другими значениями. Это также освобождает термин ортогональность для использования в соответствии с вариантом b), что очень полезно, особенно при обсуждении множественной регрессии. И наоборот, нам следует избегать применения термина корреляции к независимым переменным, поскольку они не являются случайными переменными.
р
Я разбросал ссылки на ответы на два связанных вопроса по всему тексту выше, что должно помочь вам поместить их в контекст этого ответа.