Этот ответ подчеркивает проверку оцениваемости. Свойство минимальной дисперсии мое вторичное рассмотрение.
Для начала обобщим информацию в виде матричной формы линейной модели следующим образом:
Y : = [ Y 1 Y 2 Y 3 Y 4 ] = [ 1 0 - 1 1 1 - 1 1 0 - 1 1 - 1 - 1 ] [ θ 1 θ 2 θ 3 ] + [ ε 1 ε 2 ε 3 ε 4 ] : =X β + ε ,
Y:=⎡⎣⎢⎢⎢Y1Y2Y3Y4⎤⎦⎥⎥⎥=⎡⎣⎢⎢⎢1111010−1−1−1−1−1⎤⎦⎥⎥⎥⎡⎣⎢θ1θ2θ3⎤⎦⎥+⎡⎣⎢⎢⎢ε1ε2ε3ε4⎤⎦⎥⎥⎥:=Xβ+ε,(1)
где
E(ε)=0,Var(ε)=σ2IE(ε)=0,Var(ε)=σ2I(обсудить оцениваемости, то spherity предположение не является необходимым. Но обсуждать свойство Гаусса-Маркова, мы должны взять на себя spherity из
εε).
Если конструкция матрицы Х имеет полный ранг, то параметр оригинал β допускает уникальные наименьших квадратов оценки β = ( X ' X ) - 1 Х ' У . Следовательно, любой параметр φ , определяется как линейная функция ф ( р ) из р является почтенная в том смысле , что она может быть однозначно оценена с помощью данных по методу наименьших квадратов оценки β , как φ = р ' р .Xββ^=(X′X)−1X′Yϕϕ(β)ββ^ϕ^=p′β^
Тонкость возникает, когда X не имеет полного ранга. Для более подробного обсуждения мы сначала исправим некоторые обозначения и термины (я придерживаюсь принципа «Безкоординатный подход к линейным моделям» , раздел 4.8. Некоторые термины звучат излишне технически). Кроме того, обсуждение относится к общей линейной модели Y = X β + ε с X ∈ R n × k и β ∈ R k .XY=Xβ+εX∈Rn×kβ∈Rk
- Регрессионный коллектор представляет собой совокупность средних векторов , как & beta ; изменяется в R к :
М = { Х & beta ; : & beta ; ∈ R K } .βRk
M={Xβ:β∈Rk}.
- Параметрический функционал φ = φ ( β ) представляет собой линейный функционал р ,
φ ( β ) = р ' β = р 1 β 1 + ⋯ + р к β к .ϕ=ϕ(β)β
ϕ(β)=p′β=p1β1+⋯+pkβk.
Как упомянуто выше, когда rank ( X ) < k , не каждый параметрический функционал ϕ ( β ) оцениваем. Но, подождите, каково определение термина « технически оцениваем» ? Кажется, трудно дать четкое определение, не беспокоясь о небольшой линейной алгебре. Одно из определений, которое я считаю наиболее интуитивным, заключается в следующем (из той же вышеупомянутой ссылки):rank(X)<kϕ(β)
Определение 1. Параметрический функционал ϕ ( β ) оцениваем, если он однозначно определяется X β в том смысле, что ϕ ( β 1 ) = ϕ ( β 2 ) всякий раз, когда β 1 , β 2 ∈ R k удовлетворяют X β 1 = X β 2 .ϕ(β)Xβϕ(β1)=ϕ(β2)β1,β2∈RkXβ1=Xβ2
Интерпретация. Вышеприведенное определение предусматривает, что отображение из регрессионного многообразия M в пространство параметров ϕ должно быть взаимно-однозначным, что гарантируется, когда rank ( X ) = k (т. Е. Когда само X взаимно однозначно). Когда ранг ( X ) < k , мы знаем, что существует β 1 ≠ β 2 такое, что X β 1 = X β 2Mϕrank(X)=kXrank(X)<kβ1≠β2Xβ1=Xβ2, Вышеупомянутое оценочное определение фактически исключает те структурно-дефектные параметрические функционалы, которые приводят к самим разным значениям даже с одним и тем же значением на M , что естественно не имеет смысла. С другой стороны, оцениваемый параметрический функционал ϕ ( ⋅ ) допускает случай ϕ ( β 1 ) = ϕ ( β 2 ) с β 1 ≠ β 2 , если выполняется условие X β 1 = X β 2 .Mϕ(⋅)ϕ(β1)=ϕ(β2)β1≠β2Xβ1=Xβ2
Существуют и другие эквивалентные условия для проверки оцениваемости параметрического функционала, приведенные в той же ссылке, Предложение 8.4.
После такого подробного вступления, давайте вернемся к вашему вопросу.
A. Само β не оценивается по той причине, что rank ( X ) < 3 , что влечет за собой X β 1 = X β 2 при β 1 ≠ β 2 . Хотя приведенное выше определение дано для скалярных функционалов, оно легко обобщается на вектор-функционалы.βrank(X)<3Xβ1=Xβ2β1≠β2
B. ϕ 1 ( β ) = θ 1 + θ 3 = ( 1 , 0 , 1 ) ′ β не оценивается. Для этого рассмотрим β 1 = ( 0 , 1 , 0 ) ′ и β 2 = ( 1 , 1 , 1 ) ′ , что дает X β 1 = X β 2, но ϕ 1ϕ1(β)=θ1+θ3=(1,0,1)′ββ1=(0,1,0)′β2=(1,1,1)′Xβ1=Xβ2(β1)=0+0=0≠ϕ1(β2)=1+1=2ϕ1(β1)=0+0=0≠ϕ1(β2)=1+1=2.
C. ϕ2(β)=θ1−θ3=(1,0,−1)′βϕ2(β)=θ1−θ3=(1,0,−1)′β is estimable. Because Xβ1=Xβ2Xβ1=Xβ2 trivially implies θ(1)1−θ(1)3=θ(2)1−θ(2)3θ(1)1−θ(1)3=θ(2)1−θ(2)3, i.e., ϕ2(β1)=ϕ2(β2)ϕ2(β1)=ϕ2(β2).
D. ϕ3(β)=θ2=(0,1,0)′βϕ3(β)=θ2=(0,1,0)′β is also estimable. The derivation from Xβ1=Xβ2Xβ1=Xβ2 to ϕ3(β1)=ϕ3(β2)ϕ3(β1)=ϕ3(β2) is also trivial.
After the estimability is verified, there is a theorem (Proposition 8.16, same reference) claims the Gauss-Markov property of ϕ(β)ϕ(β). Based on that theorem, the second part of option C is incorrect. The best linear unbiased estimate is ˉY=(Y1+Y2+Y3+Y4)/4Y¯=(Y1+Y2+Y3+Y4)/4, by the theorem below.
Theorem. Let ϕ(β)=p′βϕ(β)=p′β be an estimable parametric functional, then its best linear unbiased estimate (aka, Gauss-Markov estimate) is ϕ(ˆβ)ϕ(β^) for any solution ˆββ^ to the normal equations X′Xˆβ=X′YX′Xβ^=X′Y.
The proof goes as follows:
Proof. Straightforward calculation shows that the normal equations is
[40−4020−404]ˆβ=[1111010−1−1−1−1−1]Y,
⎡⎣⎢40−4020−404⎤⎦⎥β^=⎡⎣⎢10−111−110−11−1−1⎤⎦⎥Y,
which, after simplification, is
[ϕ(ˆβ)ˆθ2/2−ϕ(ˆβ)]=[ˉY(Y2−Y4)/4−ˉY],⎡⎣⎢⎢ϕ(β^)θ^2/2−ϕ(β^)⎤⎦⎥⎥=⎡⎣⎢Y¯(Y2−Y4)/4−Y¯⎤⎦⎥,
i.e., ϕ(ˆβ)=ˉYϕ(β^)=Y¯.
Therefore, option D is the only correct answer.
Addendum: The connection of estimability and identifiability
When I was at school, a professor briefly mentioned that the estimability of the parametric functional ϕϕ corresponds to the model identifiability. I took this claim for granted then. However, the equivalance needs to be spelled out more explicitly.
According to A.C. Davison's monograph Statistical Models p.144,
Definition 2. A parametric model in which each parameter θθ generates a different distribution is called identifiable.
For linear model (1)(1), regardless the spherity condition Var(ε)=σ2IVar(ε)=σ2I, it can be reformulated as
E[Y]=Xβ,β∈Rk.
E[Y]=Xβ,β∈Rk.(2)
It is such a simple model that we only specified the first moment form of the response vector YY. When rank(X)=krank(X)=k, model (2)(2) is identifiable since β1≠β2β1≠β2 implies Xβ1≠Xβ2Xβ1≠Xβ2 (the word "distribution" in the original definition, naturally reduces to
"mean" under model (2)(2).).
Now suppose that rank(X)<krank(X)<k and a given parametric functional ϕ(β)=p′βϕ(β)=p′β, how do we reconcile Definition 1 and Definition 2?
Well, by manipulating notations and words, we can show that (the "proof" is rather trivial) the estimability of ϕ(β)ϕ(β) is equivalent to that the model (2)(2) is identifiable when it is parametrized with parameter ϕ=ϕ(β)=p′βϕ=ϕ(β)=p′β (the design matrix XX is likely to change accordingly). To prove, suppose ϕ(β)ϕ(β) is estimable so that Xβ1=Xβ2Xβ1=Xβ2 implies p′β1=p′β2p′β1=p′β2, by definition, this is ϕ1=ϕ2ϕ1=ϕ2, hence model (3)(3) is identifiable when indexing with ϕϕ. Conversely, suppose model (3)(3) is identifiable so that Xβ1=Xβ2Xβ1=Xβ2 implies ϕ1=ϕ2ϕ1=ϕ2, which is trivially ϕ1(β)=ϕ2(β)ϕ1(β)=ϕ2(β).
Intuitively, when XX is reduced-ranked, the model with ββ is parameter redundant (too many parameters) hence a non-redundant lower-dimensional reparametrization (which could consist of a collection of linear functionals) is possible. When is such new representation possible? The key is estimability.
To illustrate the above statements, let's reconsider your example. We have verified parametric functionals ϕ2(β)=θ1−θ3ϕ2(β)=θ1−θ3 and ϕ3(β)=θ2ϕ3(β)=θ2 are estimable. Therefore, we can rewrite the model (1)(1) in terms of the reparametrized parameter (ϕ2,ϕ3)′(ϕ2,ϕ3)′ as follows
E[Y]=[1011101−1][ϕ2ϕ3]=˜Xγ.
E[Y]=⎡⎣⎢⎢⎢1111010−1⎤⎦⎥⎥⎥[ϕ2ϕ3]=X~γ.
Clearly, since ˜XX~ is full-ranked, the model with the new parameter γγ is identifiable.
self-study
тег или кто-нибудь придет и закроет ваш вопрос.