Ранее я узнал о распределениях выборки, которые дали результаты, которые были для оценки, с точки зрения неизвестного параметра. Например, для выборочных распределений и в модели линейной регрессии β 1Уя=βо+β1Xя+εя
где
Но теперь я увидел в книге следующее :
Предположим, мы подгоняем модель по методу наименьших квадратов обычным способом. Рассмотрим байесовское апостериорное распределение и выберите приоры так, чтобы это было эквивалентно обычному распределению выборки по частоте, то есть ......
Это смущает меня, потому что:
- Почему оценки появляются в левой части (lhs) первых 2 выражений и в правой части (rhs) последнего выражения?
- Почему бета-шапки в последнем выражении имеют 1 и 2 подписки вместо 0 и 1?
- Это просто разные представления одного и того же? Если они есть, кто-то может показать мои, как они эквивалентны? Если нет, может кто-нибудь объяснить разницу?
- Это тот случай, когда последнее выражение является «инверсией» первых двух? Поэтому матрица 2x2 в последнем выражении инвертируется, а оценки / параметры переключаются с rhs lhs? Если так, может кто-нибудь показать мне, как добраться от одного к другим?