В других контекстах ортогональный означает «под прямым углом» или «перпендикулярно».
Что означает ортогональность в статистическом контексте?
Спасибо за любые разъяснения.
В других контекстах ортогональный означает «под прямым углом» или «перпендикулярно».
Что означает ортогональность в статистическом контексте?
Спасибо за любые разъяснения.
Ответы:
Это означает, что они [случайные величины X, Y] «независимы» друг от друга. Независимые случайные величины часто рассматриваются как находящиеся «под прямым углом» друг к другу, где под «прямыми углами» подразумевается, что внутреннее произведение двух равно 0 (эквивалентное условие линейной алгебры).
Например, на плоскости XY оси X и Y называются ортогональными, потому что, если значение x данной точки изменяется, скажем, при переходе от (2,3) к (5,3), ее значение y остается неизменным (3), и наоборот. Следовательно, две переменные являются «независимыми».
Смотрите также записи Википедии о независимости и ортогональности
Я не могу комментировать, потому что у меня недостаточно очков, поэтому я вынужден высказать свое мнение в качестве ответа, пожалуйста, прости меня. Из всего, что я знаю, я не согласен с выбранным ответом @crazyjoe, потому что ортогональность определяется как
Так:
Если с симметричным pdf, то они являются зависимыми, но ортогональными.
Если но pdf ноль для отрицательных значений, то они зависимы, но не ортогональны.
Следовательно, ортогональность не подразумевает независимости.
Если X и Y независимы, то они ортогональны. Но обратное неверно, на что указывает умный пример пользователя 497804. Для точных определений обратитесь к
Ортогональные: комплексные случайные величины и называются ортогональными, если они удовлетворяют
(Стр. 376, Вероятность и случайные процессы Джеффри Гримметта и Дэвида Стирзакера)
Независимо: случайные величины и являются независимыми тогда и только тогда, когда для всех
что для непрерывных случайных величин эквивалентно требованию, чтобы
(Страница 99, Вероятность и случайные процессы Джеффри Гримметта и Дэвида Штирзакера)
@Mien уже дал ответ, и, как указал @whuber, ортогональный означает некоррелированный. Тем не менее, я бы очень хотел, чтобы люди давали ссылки. Вы можете счесть полезными следующие ссылки, поскольку они объясняют концепцию корреляции с геометрической точки зрения.
Веб-сайт NIST (ссылка ниже) определяет ортогональность следующим образом: «Экспериментальный дизайн является ортогональным, если влияние любого фактора уравновешивает (сумма до нуля) влияние других факторов».
В статистическом дизайне я понимаю, что ортогональный означает «не сооснованный» или «не псевдоним». Это важно при разработке и анализе эксперимента, если вы хотите убедиться, что можете четко определить различные факторы / методы лечения. Если ваш запланированный эксперимент не ортогональн, то это означает, что вы не сможете полностью разделить эффекты различных методов лечения. Таким образом, вам нужно будет провести дополнительный эксперимент, чтобы разобраться с эффектом. Это можно назвать расширенным дизайном или сравнительным дизайном.
Независимость кажется плохим выбором слова, поскольку она используется во многих других аспектах проектирования и анализа.
Ссылка NIST http://www.itl.nist.gov/div898/handbook/pri/section7/pri7.htm
Скорее всего, они имеют в виду «не связанные», если говорят «ортогональные»; если два фактора являются ортогональными (например, в факторном анализе), они не связаны, их корреляция равна нулю.
Согласно http://terpconnect.umd.edu/~bmomen/BIOM621/LineardepCorrOrthogonal.pdf , линейная независимость является необходимым условием ортогональности или некоррелированности. Но есть более тонкие различия, в частности, ортогональность не является некоррелированностью.
Я задал похожий вопрос Какова связь между ортогональностью и ожиданием продукта RV , и я воспроизвожу ответ здесь. Хотя ортогональность является понятием из линейной алгебры и означает, что скалярное произведение двух векторов равно нулю, этот термин иногда свободно используется в статистике и означает некорреляцию. Если два случайных вектора ортогональны, то их централизованный аналог некоррелирован, потому что ортогональность (нулевое скалярное произведение) подразумевает некорреляцию централизованных случайных векторов (иногда люди говорят, что ортогональность подразумевает, что перекрестный момент равен нулю). Всякий раз, когда у нас есть два случайных вектора , мы всегда можем сосредоточить их вокруг их средств, чтобы их ожидание было равно нулю. Предположим, ортогональность (X ⋅ Y = 0 C o v ( X - E [ X ] , Y - E [ Y ] ) = E [ X ⋅ Y ] = E [ 0 ] = 0), то корреляция централизованных случайных величин
В эконометрике предположение об ортогональности означает, что ожидаемое значение суммы всех ошибок равно 0. Все переменные регрессора ортогональны своим текущим слагаемым ошибок.
Математически предположение об ортогональности .
Проще говоря, это означает, что регрессор «перпендикулярен» члену ошибки.
Два или более IV не связаны (независимы) друг с другом, но оба влияют на DV. Каждый IV отдельно вносит определенную ценность в результат, в то время как оба или все IV также вносят дополнительный вклад в прогнозирование дохода (ортогональное = непересекающееся влияние IV на DV). IV не являются корреляционными между собой и обычно расположены под прямым углом * см. Диаграмму Венна.
Пример: связь между мотивацией и годами обучения по доходу.
IV = Годы образования IV = Мотивация DV = Доход
Связанные случайные переменные означают, что переменные говорят, что X и Y могут иметь любое отношение; может быть линейным или нелинейным. Независимость и ортогональные свойства одинаковы, если две переменные связаны линейно.