Почему мы стабилизируем дисперсию?


15

Я столкнулся с преобразованием, стабилизирующим дисперсию, когда читал метод Kaggle Essay Eval . Они используют преобразование стабилизации дисперсии для преобразования значений каппа, прежде чем взять их среднее значение, а затем преобразовать их обратно. Даже после прочтения вики о преобразованиях, стабилизирующих дисперсию, я не могу понять, почему мы на самом деле стабилизируем дисперсии? Какую пользу мы получаем от этого?


6
Обычно целью является сделать (асимптотическую) дисперсию независимой от интересующего параметра. Это особенно важно в заключении, где нам нужно знать эталонное распределение для расчета связанных количеств интереса.
кардинал

Ответы:


13

Вот один из ответов: как правило, наиболее эффективный способ сделать статистический вывод - это когда ваши данные внутривенно. Если нет, вы получаете разные объемы информации из разных наблюдений, и это менее эффективно. Другой способ посмотреть на это - сказать, что если вы можете добавить дополнительную информацию к своему выводу (т. Е. Функциональную форму дисперсии посредством преобразования, стабилизирующего дисперсию), вы, как правило, улучшите точность своих оценок, по крайней мере, асимптотически. В очень маленьких выборках беспокойство с моделированием отклонения может увеличить Ваш маленький выборочный уклон. Это своего рода эконометрический аргумент типа GMM: если вы добавите дополнительные моменты, ваша асимптотическая дисперсия не может возрасти; и ваш конечный выборочный уклон увеличивается с переопределенными степенями свободы.

Другой ответ был дан кардиналом: если в вашем асимптотическом выражении дисперсии висит неизвестная дисперсия, сходимость к асимптотическому распределению будет медленнее, и вам придется как-то оценить эту дисперсию. Предварительное поворот ваших данных или вашей статистики обычно помогает повысить точность асимптотических приближений.


Мне кажется, я понимаю первое предложение в вашем ответе, и оно интуитивно привлекает меня. Есть ли название для этого наблюдения, что я мог бы Google? Я хотел бы найти несколько мысленных экспериментов или примеров, которые показывают, что происходит, когда у вас разный объем информации в разных наблюдениях, и насколько это неэффективно
Pushpendre

Korn & Graubard (1999) в тексте по статистике исследований обсуждает это.
StasK

е-1(1NΣяе(κя))

@PushpendreRastogi Вы можете прочитать статью в Википедии об этом самом преобразовании. Он был введен Фишером для стабилизации дисперсии эмпирического коэффициента корреляции (между нормальными переменными). В этом случае преобразованная переменная будет приблизительно нормальной, причем дисперсия будет зависеть только от размера выборки, а не от неизвестного коэффициента корреляции (именно поэтому это «стабилизирует» дисперсию).
Элвис

@ Элвис, я привел пример корреляции в статье в Википедии о ключевой статистике ( en.wikipedia.org/wiki/Pivotal_statistic ). [Как же вы предоставили хорошую ссылку в комментарии? Я попробовал href, это выглядело ужасно.]
StasK
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.