Это может считаться ... обманом, но оценщик OLS является оценщиком MoM. Рассмотрим стандартную спецификацию линейной регрессии (с стохастическими регрессорами, поэтому величины зависят от матрицы регрессоров) и выборку размера . Обозначим OLS-оценку дисперсии ошибки. Это непредвзято такн с 2 σ 2Кns2σ2
MSE(s2)=Var(s2)=2σ4n−K
Теперь рассмотрим MLE . этоσ2
σ^2ML=n−Kns2
Это предвзято. Его MSE
MSE(σ^2ML)=Var(σ^2ML)+[E(σ^2ML)−σ2]2
Выражая MLE в терминах OLS и используя выражение для дисперсии оценки OLS, мы получаем
⇒МСЕ( σ 2 M L )=2(п-K)+K2
MSE(σ^2ML)=(n−Kn)22σ4n−K+(Kn)2σ4
⇒MSE(σ^2ML)=2(n−K)+K2n2σ4
Мы хотим условия (если они существуют), при которых
MSE(σ^2ML)>MSE(s2)⇒2(n−K)+K2n2>2n−K
2 n 2 - 4 n K + 2 K 2 + n K 2 - K 3 > 2 n 2 - 4 n + 2 K + n K - K 2 > 0 ⇒ K 2 - (
⇒2(n−K)2+K2(n−K)>2n2
2n2−4nK+2K2+nK2−K3>2n2
Упрощая, мы получаем
ли для этого квадратичного в получить отрицательные значения? Нам нужен его дискриминант, чтобы быть позитивным. У нас есть
что на этот раз является еще одним квадратичным, по . Этот дискриминант является
поэтому
чтобы принять во внимание тот факт, что является целым числом. Если
−4n+2K+nK−K2>0⇒K2−(n+2)K+4n<0
KΔK=(n+2)2−16n=n2+4n+4−16n=n2−12n+4
nΔn=122−42=8⋅16
n1,n2=12±8⋅16−−−−√2=6±42–√⇒n1,n2={1,12}
nnвнутри этого интервала мы имеем, что и квадратик в всегда принимает положительные значения, поэтому мы не можем получить требуемое неравенство. Итак:
нам нужен размер выборки больше 12.ΔK<0K
Учитывая это, корни для квадратичногоK
K1,K2=(n+2)±n2−12n+4−−−−−−−−−−√2=n2+1±(n2)2+1−3n−−−−−−−−−−−−√
В целом: для образца размером и число регрессоров такое , что
мы имеем
Для Например, если то обнаруживается, что число регрессоров должно быть чтобы неравенство сохранялось. Интересно, что для небольшого числа регрессоров MLE лучше в смысле MSE.n>12K⌈K1⌉<K<⌊K2⌋
MSE(σ^2ML)>MSE(s2)
n=505<K<47
ADDENDUM
Уравнение для корней квадратичного можно записатьK
55
K1,K2=(n2+1)±(n2+1)2−4n−−−−−−−−−−−−√
что, на мой
взгляд, означает, что нижний корень всегда будет будет (принимая во внимание ограничение "целочисленного значения"), поэтому MLE будет эффективен по MSE, когда регрессоры до для любого (конечного) размера выборки.
55