vuoi
o PayPal
tutte le volte che vuoi
X
(non stocastica) e possiede rango pieno (le variabili indipendenti saranno
( )=k
linearmente indipendenti), quindi .
p X
3. Caratteristiche della distribuzione dei termini di errore, sarà un
u
[ ]
( ) =0
E u u
vettore casuale di componenti indipendenti, tale che , con
i j
.
i≠ j
Dove: [ ]
1) .
=0
E u [ ] 2
2) La matrice di varianza/covarianza costante è , dove I
=σ
COV u I
è la matrice identità, cioè la matrice diagonale simmetrica dove i
termini diagonali sono tutti uguali ad 1 mentre i termini off-diagonali
sono nulli.
3) Ai fini inferenziali occorrerà anche assumere che i termini di errore
siano distribuiti normalmente, cioè secondo una distribuzione
2
normale: .
(0, )
u N σ Ι
L’ipotesi di varianza costante degli errori è detta assunzione di
omoschedasticità degli errori. Questa potrebbe apparire in alcuni casi poco
ragionevole portando ad una sua violazione; si parlerebbe in questo caso di
eteroschedasticità degli errori.
Lo stimatore OLS e proprietà
L’obiettivo principale dell’analisi di regressione sopra descritta è stimare il
vettore dei coefficienti di regressione che permetta di individuare la funzione di
^ ^
regressione, così da ottenere . Dove è il vettore composto dai
y
^ =
y X β
valori stimati della variabile dipendente sulla base delle stime ottenute per i
coefficienti di regressione.
Il metodo più diffuso per ottenere gli stimatori dei parametri di regressione è il
metodo dei minimi quadrati ordinari (OLS).
Tale metodo consiste nella minimizzazione, rispetto al vettore dei
β
parametri di regressione, della RSS (la somma dei quadrati dei residui). Si vuole
quindi rendere minima la distanza tra i valori empirici della varabile dipendente
(derivanti dalle osservazioni campionarie) e i corrispondenti valori stimati.
La RSS è sempre non negativa ed è uguale a zero solamente quando per ogni
osservazione il valore stimato è uguale al valore osservato.
La RSS aumenta al crescere della distanza tra i valori osservati e i valori stimati
ed è questo il motivo per cui il modello dei minimi quadrati ordinari è quello
che minimizza tale distanza rispetto al vettore dei parametri di
β
regressione.
Per ottenere la closed form dello stimatore OLS bisogna innanzitutto partire
+u
dalla formula generale del modello di regressione, e si isola il
y= X β
vettore dei termini di disturbo ottenendo .
u= y−X β
A questo punto si procede ad individuare i residui al quadrato nella seguente
maniera: ( )
u 1
T T
) =S
u u=(u , … … , u ⋮
1 k u k
Da cui avremo che:
T T
u=( )
−X ( )
S=u y β y− X β
Bisognerà quindi minimizzare S rispetto al vettore dei parametri di regressione,
ovvero fare il .
minS( β)
T T T T T Τ Τ T Τ Τ Τ Τ
( ) =( ) ( )= − +
S β y−X β y− X β y y−β X y y Xβ+ β Χ Χ β= y y−2 β Χ y β Χ Χβ
Α questo punto si fa la derivata rispetto a e poi si pone uguale a 0, quindi:
β
(β)
δ S T T
=−2 +2
X y X X β=0
δβ
Si ottiene così
T Τ
X X β= Χ y
T
Poiché è invertibile dal momento che X è una matrice che possiede
X X
rango pieno, otteniamo:
−1
^ ( )
T T
=
β X X X y
OLS
Possiamo dimostrare che questo punto stazionario è effettivamente un minimo
mediante l’analisi delle c.d. condizioni di secondo ordine.
Proprietà dello stimatore OLS
Le proprietà dello stimatore OLS sono le seguenti:
1) Correttezza, gli stimatori OLS sono stimatori non distorti (corretti),
ovvero
[ ]
^ =
E β β
OLS
Infatti, avremo che
−1
^ ( )
T T
=
β X X X y
OLS −1
^ ( )
T T
= (
β X X X X β+ u)
OLS −1
^ ( )
T T
=β +
β X X X u
OLS
Da cui è possibile calcolare il valore atteso come
[ ]
[ ] −1 −1
^ ( ) ( )
T T T [ ]
= =β +
E β E β+ X X X u X X E u
OLS
Il risultato è il vettore dei parametri di regressione più una componente
deterministica che moltiplica il valore atteso dei termini di errore. Poiché
quest’ultima componente (che è una media), sotto le ipotesi base del modello,
è pari a 0, ne consegue che il valore atteso dello stimatore OLS è uguale al
parametro che si intende stimare.
Tale è la dimostrazione della proprietà di non distorsione.
2) Consistenza, gli stimatori OLS sono anche stimatori consistenti. Per
verificare questa proprietà occorre osservare il comportamento della
matrice di varianza-covarianza quando questa viene fatta tendere ad
infinito. Avremo che
[ ] [ ]
−1 −1
^ ^ ^ Τ
( ) ( )( ) ( ) ( )
T T T T
=E −β −β =E
COV β β β X X X u u X X X
OLS OLS OLS
Risolvendo otterremo:
[ ]
−1 −1
( ) ( )
T T T T
X X X E uu X X X 2
Poiché la varianza di , ne consegue che
u=σ Ι
−1 −1
^
( ) ( ) ( )
T T 2 T
=
COV β X X X σ Ι X X X
OLS 2
Da cui si ottiene, dal momento che è costante:
σ
−1 −1 −1
( ) ( ) ( )
2 T T T 2 T
=σ
σ X X X X X X X
A questo punto il limite
−1
( )
T
X X
1
2 =0
lim σ T T