vuoi
o PayPal
tutte le volte che vuoi
Teorema di Gauss-Markov
Def
- Considerate le assunzioni OLS estese:
- E[μi|Xi] = 0
- (Xi, Yi) iid
- E(X4) < ∞ E(Y4) < ∞
- Var σi, σi2 ∀ V (omosch)
- un ∈ N(0, σi)
Lo stimatore OLS di β1 è quello con la varianza + piccola tra tutti gli stimatori lineari dei β1 cioé β1 ∈ BLUE
BEST LINEAR UNBIASED ESTIMATOR
- β1, β2 hanno una distribuzione normale
- la statistica t si distribuisce come una t di Student con (n-2) gdl
Dimostrazione
- Verifichiamo le condizioni di GM derivanti dalle assunzioni OLS estese
- E[μt | Xt, X2, ..., Xm] = 0 [∀ + ∀2] (μ condizionato a qualsiasi errore ha media nulla)
- Var [μt | Xt1, X2, ..., Xm] < σx2 < ∞ [∀3 + ∀4] (omosch)
- Var [μt, μt1 | Xt, X2, ..., Xm] = 0 [∀ + ∀2] (cov. nulla)
β1 = ∑ m (Xi - ¯X) (Yi - ¯Y)/∑m (Xi - ¯X)2 â: (Xi - ¯X)2/(Xt - â)2
β1, ∑im âiYi
Sappiamo che β1 è corretto quindi
E[β1 | Xt, X2, ..., Xm] = β1 Var [β1|Xt, ..., Xn] = σY2/σx2/E[(Xt'Xt)2]
Introduciamo un nuovo stimatore β't lineare non distorto per dimostrare che
Var [β'1] ≤ Var [β1]
βn = ∑i=11 âiyi
Se vale
yi = β0 + β1 X1~ + μi
β1 = (Σa~i/ΣX) (β1Xi + μi)
= β0Σm/i=1a~i + β1Σm/i=1aiXi + Σn/i=1aiμi
β1 è consistentemente non distorto se E[β1 | X1, ..., Xm] = β1
E[β1 | X1, X2, …] + β1E[Σ a2i X | X1] = E[Σ a~iμi | X1] = 0
Introduco due vincoli
1. Σ a~i = 0
2. Σ X~ia~iX = 1
Quindi E[β1 | X1 ,..., Xm β...] non deteriorano
Se sostituiamo i vincoli in β~1 rimuovo
x2μiΣm/i=1 a2iμi
Var[β1~ |X1, ..., Xm] xZm E[β1~] 2 |X1, ..., Xm] = E[Σm/i=1 a2iui2 | X1] xR
Var[β2] = σ2μ2Σm/i=1 a2i
Var
Var LAOMOCH *x
σ~22 GM = σ2μ
Confrontiamo la varianza di β1 con quello di β1
Var[β2] x1, ..., Xm =
Σm/i=1x2μ/Σm/i=1Δ2i
Var[β~1]σμ
Lai non è la stessa ed introduco la grandezza âu = a2i
Var[β~1 x~
xσ2 â21/x Σa~[aii=1 - 2