Сэндвич оценщик интуиции


20

Википедия и виньетка R-сэндвич-пакетов дают хорошую информацию о допущениях, подтверждающих стандартные ошибки коэффициента OLS, и математических основах сэндвич-оценок. Мне все еще неясно, как решается проблема гетероскедастичности остатков, возможно потому, что я не совсем понимаю стандартную оценку дисперсии коэффициентов OLS.

Какова интуиция за сэндвич-оценщиком?


5
Вам нужно больше узнать о оценке (или оценке экстремума, как ее иногда называют в эконометрике). Сэндвич-оценка для регрессии - это всего лишь частный случай очень общей формулы дельта-метода, и если вы понимаете последнее, у вас не возникнет никаких проблем с первым. Нет никакой интуиции в том, что сэндвич-оценщик не пытается моделировать гетероскедастичность или делать что-то конкретное с этим; это просто другой оценщик дисперсии, который работает в более общем наборе предположений, чем стандартный оценщик OLS. M
StasK

@StasK Спасибо! Вы знаете какой-нибудь конкретный хороший ресурс по формулам M-оценки и дельта-метода?
Роберт Кубрик

Монография Роберта Хьюбера "Надежная статистика" заслуживает внимания.
Momo

Ответы:


17

Для OLS вы можете себе представить, что вы используете расчетную дисперсию невязок (в предположении независимости и гомоскедастичности) в качестве оценки условной дисперсии s. В оценщике на основе сэндвича вы используете наблюдаемые квадратичные невязки в качестве плагина для оценки той же самой дисперсии, которая может варьироваться между наблюдениями.Yi

var(β^)=(XTX)1(XTdiag(var(Y|X))X)(XTX)1

В обычной оценке стандартной ошибки наименьших квадратов для оценки коэффициента регрессии условная дисперсия результата рассматривается как постоянная и независимая, так что ее можно оценить последовательно.

var^OLS(β^)=(XTX)1(r2XTX)(XTX)1

Для сэндвича мы отказываемся от согласованной оценки условной дисперсии и вместо этого используем плагиновую оценку дисперсии каждого компонента с использованием квадрата остатка

var^RSE(β^)=(XTX)1(XTdiag(ri2)X)(XTX)1

Используя оценку дисперсии плагина, мы получаем непротиворечивые оценки дисперсии по центральной предельной теореме Ляпунова.β^

Интуитивно понятно, что эти наблюдаемые квадратные остатки уничтожат любую необъяснимую ошибку из-за гетероскедастичности, которая в противном случае была бы неожиданной в предположении постоянной дисперсии.


Это твой последний абзац, который мне трудно понять. Можешь проиллюстрировать?
Роберт Кубрик

Это не SE в ваших формулах, AdamO, это SE ^ 2 ... каким бы матричным способом вы ни подразумевали это.
StasK

@StasK Хорошая мысль. Может быть, шляпа дисперсии лучше. Я путал многомерную и одномерную терминологию.
AdamO

1
@RobertKubrick В последнем абзаце я отмечаю, что ключевое различие в оценках заключается в том, как мы представляем условную дисперсию члена . В модели линейной регрессии мы последовательно оцениваем невязки, но с помощью сэндвича мы просто используем плагиновую оценку условной дисперсии для члена с использованием квадратов невязок. При наличии гетероскедастичности точки с относительно большими квадратами невязок имеют соответствующую большую оценочную дисперсию, и это уменьшает их влияние на стандартные оценки ошибок. ivar(Y|X)i
AdamO

Редактировать: я сказал, что оценки OLS var включают в себя «непротиворечивые оценки невязок», когда я хотел сказать «непротиворечивая оценка дисперсии невязок».
AdamO
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.