Моменты раздачи - какое-нибудь использование для частичных или более высоких моментов?


20

Обычно используют второй, третий и четвертый моменты распределения для описания определенных свойств. Частичные моменты или моменты выше четвертого описывают какие-либо полезные свойства распределения?


3
Не ответ, но одна вещь, которую нужно иметь в виду, состоит в том, что моменты высшего порядка требуют гораздо большего количества наблюдений, чтобы получить первый сигнал.
изоморфизм

Пост, который использует частичные моменты, является stats.stackexchange.com/questions/94402/… . Так что частичные моменты имеют некоторое использование и, вероятно, могут быть использованы больше.
kjetil b halvorsen

Ответы:


10

Помимо специальных свойств нескольких чисел (например, 2), единственная реальная причина выделить целочисленные моменты в отличие от дробных моментов - это удобство.

Более высокие моменты могут быть использованы для понимания поведения хвоста. Например, центрированная случайная величина с дисперсией 1 имеет субгауссовые хвосты (т. Е. P ( | X | > t ) < C e - c t 2 для некоторых констант c , C > 0 ) тогда и только тогда, когда E | X | p( AXP(|X|>t)<Cect2c,C>0для любогоp1и некоторой константыA>0.E|X|p(Ap)pp1A>0


результат, который вы указываете для [sub] гауссовых хвостов, выглядит неправильно. в соответствии с пределом [ ] Вы цитируете, чтонормаp t h центрированной гауссовой переменной не будет [в пределе] превышать 1., нонормаp t h для rv стремится к своему ess sup, который равен+для гауссовой переменной. Appthpth+
Ронаф

Спасибо, что поймали это. Я забыл экспонент по RHS; это исправлено сейчас.
Марк Мекес

Не могли бы вы дать ссылку на этот результат?
Гэри

@Gary: к сожалению, я не знаю (опубликованных или онлайн) ссылок; это часть моего фольклора, изложенная на курсах, но списанная как «простая и известная» в газетах. Доказательство легко, хотя. Учитывая оценку хвоста, оценка момента следует из интегрирования по частям (т. ) и формуле Стирлинга. Учитывая оценку момента, оценка хвоста следует, применяя неравенство Маркова и оптимизируя по p . E|X|p=0ptp1P(|X|>t)dtp
Марк Мекес

9

Я становлюсь подозрительным, когда слышу, как люди спрашивают о третьем и четвертом моментах. Есть две распространенные ошибки, которые люди часто имеют в виду, когда поднимают тему. Я не говорю, что вы обязательно делаете эти ошибки, но они часто появляются.

Во-первых, кажется, что они неявно верят, что распределения можно свести к четырем числам; они подозревают, что только двух чисел недостаточно, но трех или четырех должно быть достаточно.

Во-вторых, звучит как возвращение к подходу сопоставления моментов в статистике, который в значительной степени проиграл методам максимального правдоподобия в современной статистике.

Обновление: я расширил этот ответ в блоге .


3

Один пример использования (интерпретация - лучший классификатор) более высокого момента: пятый момент одномерного распределения измеряет асимметрию его хвостов.


3
Но разве третий (центральный) момент не делает это более стабильным и практичным способом?
whuber

3
@Whuber:> третий измеряет общую асимметрию, что не то же самое, что хвостовая асимметрия. Из-за более высокого показателя значение пятого почти полностью определяется хвостами.
user603 20.09.10

1
@Kwak: Спасибо за разъяснение вашего значения. Конечно, тот же самый ответ можно применить к любому странному моменту: они измеряют асимметрию все дальше и дальше в хвостах.
whuber

@Whuber:> Конечно. Обратите внимание, что даже для честнохвостого распределения, такого как гауссиан, к 7-му моменту вы уже сравниваете максимум с минимумом.
user603

1
@Kwak: два быстрых последующих вопроса; не нужно отвечать, если вы не хотите. (1) «Хвостатая» (2) Каковы минимальные и максимальные гауссианы?
whuber
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.