Мы не можем выбирать здесь. Фактор «нормализации», по сути, является фактором «стабилизации дисперсии к чему-то конечному», так что выражение не стремится к нулю или к бесконечности, поскольку размер выборки идет к бесконечности, а поддерживает распределение на пределе.
Так что должно быть так, как должно быть в каждом конкретном случае. Конечно , интересно , что во многих случаях выясняется , что он должен быть . (но см. также комментарий @ whuber ниже).N--√
Стандартный пример, где нормализующий коэффициент должен быть , а не это когда у нас есть модель √NN--√
YT= βYт - 1+ тыT,Y0= 0 ,т = 1 , . , , , Т
с белым шумом , и мы оцениваем неизвестное по Обыкновенным Наименьшим Квадратам. βUTβ
Если так получилось, что истинное значение коэффициента равно , то оценка OLS непротиворечива и сходится с обычной скоростью . √| β| <1N--√
Но если вместо этого истинное значение равно (т.е. у нас на самом деле чисто случайное блуждание), то оценка OLS непротиворечива, но будет сходиться «быстрее» со скоростью (это иногда называют «суперсогласованной» оценкой - так как, я думаю, так много оценок сходятся со скоростью ).
В этом случае, чтобы получить его (ненормальное) асимптотическое распределение, мы должны масштабировать на (если мы масштабируем только на выражение будет стремиться к нулю). Гамильтон ch 17 имеет подробности.n √β= 1N ( β -β)N--√
( β^- β) √NN--√