Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
M.R.L. GENERALIZZATO
Se viene abbandonata l’assunzione di sfericità degli errori, il modello diventa:
(1) Con: ,
(con:
lo stimatore: non è più BLUE, e la sua varianza è ora pari a:
Stimatore GLS (Generalized Least Squares)
Lo stimatore GLS può considerarsi come uno stimatore OLS basato su variabili trasformate: supponiamo che esista
una matrice quadrata non singolare tale che:
, da cui: , da cui: , da cui:
per ricavare lo stimatore GLS, moltiplichiamo entrambi i lati per la matrice , ottenendo:
(2)
̃
̃ ̃ (3)
che può essere riscritta come:
̃
si vede subito che: ̃ ̃ ̃ 10
̃ ̃ ̃ ̃
Dalla (3) si ricava quindi:
Con:
e:
Test “F” su restrizioni lineari multiple (GLS)
̂ ̂
NB:
Stimatore FGLS (Feasible Generalized Least Squares) ̂
Se la matrice non è osservata, dobbiamo utilizzare una sua stima , ottenendo così lo stimatore FGLS che è
asintoticamente equivalente a quello GLS ma non è più BLUE (in campioni finiti).
AUTOCORRELAZIONE
Come l’eteroschedasticità, anche l’autocorrelazione è una violazione dell’ipotesi di sfericità degli errori.
In questo caso, però, gli elementi sulla diagonale principale della matrice di varianza-covarianza sono uguali
(omoschedasticità), mentre gli altri sono diversi da zero, per cui:
Assumendo che le osservazioni campionarie siano ordinate rispetto al tempo, le covarianze fra e sono una
funzione della distanza : , con:
√
La matrice di varianza-covarianza dei termini di errore è:
[ ] 11
PROCESSI STOCASTICI
Un processo stocastico è una sequenza di variabili casuali ordinate rispetto al tempo:
, con:
White Noise
Un processo stocastico è definito “white noise” se: ,
Random Walk
Un processo stocastico è definito “random walk” se evolve nel tempo come segue:
∑
Dove è un processo “white noise”.
PROCESSI STOCASTICI AUTOCORRELATI
Processo AR(1)
Un processo stocastico è definito autoregressivo di ordine 1 se evolve nel tempo come segue:
∑ , dove:
imponendo la restrizione , le osservazioni meno recenti sono “pesate” meno di quelle più recenti, e inoltre:
Processo MA(1)
Un processo statistico è definito a media mobile di ordine 1 se evolve nel tempo come segue:
, dove: {
Inoltre: 12
GLS con AR(1)
Con processo AR(1) la matrice di varianza-covarianza è data da:
[ ]
̂
Da cui:
FGLS con AR(1) ̂
Se la matrice non è nota, ma si assume , per stimare è necessario stimare :
1) Stimare il modello originale e ottenere il vettore dei residui stimati “ ”.
2) Calcolare il coefficiente di (auto)correlazione campionario “ ”:
∑ ∑ ̂
3) Calcolare la matrice stimata, sostituendo “ ” con la corrispondente stima “ ”:+
[ ]
̂ ̃
̃ ̃
4) Stimare il modello trasformato: con:
√ √
[ ] [ ]
̂ ̃ ̂ ̃
̃ e
5) Da cui si ottiene: ̃ ̃ ̃ ̃ 13
Test di autocorrelazione
Test di Durbin-Watson
Nel caso AR(1), l’ipotesi nulla è data da: , la statistica di Durbin-Watson “ ” è data da:
∑ ∑ ̂
è facile vedere che: ̂
Se: assenza di autocorrelazione
̂
Se: correlazione positiva
̂
Se: correlazione negativa
Test “t” per errori AR(1)
Usare il modello: , e testare:
Test “F” per errori AR()
Usare il modello: e testare:
VARIABILI STRUMENTALI
Variabili omesse
Ipotizziamo che il modello sia: (1)
Assumiamo inoltre che: (2)
introduciamo una variabile strumentale “ ” (esogena) tale che:
(3) esogenità Della variabile strumentale
(4) rilevanza
per verificare la veridicità della (4) , possiamo regredire la variabile endogena “ ” sulla quella esogena “ ”:
(5) , con: (6)
l’assunzione (4) sarà vera se saremo in grado di rifiutare l’ipotesi nulla: (7)
La variabile strumentale “ ” oltre ad essere correlata con la variabile endogena “ ”, occorre che non sia correlata
con la variabile dipendente “ ” e con altre variabili esplicative “omesse” ( ).
Quindi una “proxy variable” di queste variabili omesse, se usata come variabile strumentale, renderà debole il
modello e così anche il relativo stimatore “IV” (Instrumental Variable). 14
la disponibilità di una variabile strumentale può essere usata per stimare in modo consistente i parametri della (1)
per scrivere in termini di covarianze della popolazione, usiamo la (1): la covarianza tra “ ” e “ ” è data da:
(8)
per le assunzioni (3) e (4) si ha che: (9)
da cui: ∑ ̅
̅
̂ (10)
∑ ̅
̅
da cui:
̂ ̂
̅ ̅ (11)
Variabile strumentale binaria
Se la variabile “ ” è binaria, lo stimatore della variabile, detto “stimatore di Wald”, diventa:
̅ ̅ ̅
̂ {
̅
(12) ̅
̅ ̅ con: ̅
{
̅ ̅
Inferenza statistica con “IV”
Introduciamo l’assunzione di omoschedasticità rispetto alla variabile strumentale “ ”:
(13) ̂
da cui, se valgono la (3), la (4) e la (13), la varianza asintotica di è data da:
̂ (14)
la (14) ci dice quanto sono correlate “ ” e “ ” , essa converge a 0 al tasso “ ” , dove “ ” è la dimensione del
campione. Essa è interessante per due ragioni: ̂ :
1. Ci fornisce un modo per ottenere lo standard error di tutte le quantità della (14) possono essere
stimate in modo consistente dato un campione casuale:
Varianza campionaria di ( ) per stimare
Per stimare possiamo regredire su e calcolare ̂
̂
̂
Per calcolare usiamo i residui “IV”: (15) 15
∑ ̂
̂
da cui otteniamo: (16)
̂
√
̂
da cui: (15)
̂ ̂
2. Ci permette di comparare e :
̂ ̂
(16) e (17)
,
la (16) e la (17) differiscono solo per che poiché è sempre , allora avremo che:
̂ ̂ . Se la correlazione tra e è debole, allora sarà vicino a 0, quindi la
̂ ̂ ̂
sarà molto grande (viceversa: se ).
Conseguenze di uno strumento “debole” ̂
Una debole correlazione tra “ ” e “ ” , oltre a comportare un alto valore di , e quindi scarsa accuratezza
delle stime, esaspera la distorsione asintotica dello stimatore, anche se .
questo perché:
̂ (18)
distorsioni
̂ (19) , da cui:
̂ (20)
̂
se la “direzione delle distorsioni è la stessa e la correlazione tra e è piccola, sarà probabile che la distorsione
̂ ̂
di sia maggiore di quella di (cioè che il lato sinistro della (20) sia > 1).
Sarebbe vero il contrario s.s.se il numeratore del lato destro della (20) fosse minore di (il denominatore)
, cosa che è più difficile quanto più basso è quest’ultimo valore
(cioè quanto minore è la correlazione tra e ). 16
VARIABILI STRUTTURALI NEL M.R.L. MULTIPLO
Consideriamo un modello standard con due variabili esplicative:
(21)
chiamiamo la (21) equazione strutturale, dove la variabile dipendente “ ” è endogena (correlata con le “ ”), la
variabile esplicativa “ ” è anch’essa endogena (cioè ), la variabile esplicativa “ ” è invece esogena
(cioè ) e infine .
si suppone che “ ” sia correlata ad “ ” a causa di una variabile omessa correlata con la “ ” e presente in “ ”.
utilizziamo la variabile strumentale “ ”, assumendo che:
, , (22)
abbiamo ancora bisogno che “ ” sia correlata con “ ”, ma la presenza di “ ” complica la situazione:
dobbiamo fissare questa assunzione (cioè ) in termini di correlazione parziale:
(23)
Con: , ,
la condizione chiave di identificazione, insieme a quelle della (22), è quindi: (24)
chiamiamo la (23) equazione in forma ridotta, per indicare che abbiamo regredito una variabile endogena ( ) in
termini di variabili esogene ( )
Aggiungendo ulteriori variabili esplicative esogene, l’equazione strutturale diventa:
(25)
Dove: , , con:
l’equazione in forma ridotta diventa: (26)
E avendo bisogno di una certa correlazione parziale tra “ ” e “ ” , dev’essere che: (27) 17
CASO “JUST IDENTIFIED”
Consideriamo il modello , inoltre assumiamo che regressori siano endogeni ( ) e regressori
siano esogeni ( ) , con e .
Assumiamo di disporre di “ ” variabili esogene ( ) in cui sono comprese le più altre variabili
strumentali ( ) che siano valide rilevanti.
abbiamo che: .
una prima condizione è che: (condizione d’ordine).
Se questa condizione è soddisfatta con uguaglianza il modello è detto “just identified”, e in questo caso:
̂ (28)
occorre quindi imporre un’ulteriore condizione affinché la matrice sia invertibile:
(
condizione di rango).
̂
lo stimatore può essere riscritto come:
̂
da cui, visto che stiamo assumendo:
(esogenità) , e
(rilevanza) , si ricava che:
̂
(consistenza)
̂
NB: in campioni finiti è consistente ma distorto, poiché sarebbe non-distorto solo se, oltre ad ,
assumessimo anche , il che però è troppo forte, perché implica , che se fosse vero
̂
consentirebbe l’uso di direttamente.
sotto l’assunzione di omoschedasticità. Abbiamo che:
̂
nel caso di errori non-sferici, la formula può essere modificata in:
̂
Come nel caso bivariato, strumenti deboli provocano una perdita di accuratezza ed aumentano l’eventuale
̂
distorsione asintotica di . 18
TWO STAGE LEAST SQUARES (2SLS)
Caso base:
Consideriamo di nuovo il modello: (21)
Ma stavolta assumiamo di avere due variabili esogene escluse dalla (21), “ ” e “ ”.
Se entrambe sono correlate con “ ”, potremmo usarle entrambe come IV, ma nessuna delle due sarebbe efficiente.
finché , e non sono correlate con , nemmeno una loro combinazione lineare lo è, quindi possiamo
usarla come IV.
scriviamo l’equazione in forma ridotta di come: (29)
Dove: , , ,
allora la migliore I