Che materia stai cercando?

Econometria - la proiezione e la causalità Appunti scolastici Premium

Appunti di Econometria per l'esame del professor Carlucci sulla proiezione e causalità. Gli argomenti trattati sono i seguenti: la proiezione puntuale, il caso del rumore bianco, la proiezione lineare, il caso del valor medio nonnullo, la scomposizione della varianza dell’errore di proiezione, la causalità secondo... Vedi di più

Esame di Econometria docente Prof. F. Carlucci

Anteprima

ESTRATTO DOCUMENTO

Modulo X – Modelli VAR

vero

Ipotizziamo che il processo generatore dei dati sia rappresentabile

mediante il seguente il modello autoregressivo vettoriale di ordine uno

−  

y

   

   

y u

1.20 1.27 0.65 −

1, t 1

1

t 1

t

= + ⋅ +

 

   

   

− y

y u

1.08 1.93 0.66

   

   

 

2, t 2

2 t 2 t

dove il vettore dei residui si suppone un processo del tipo rumore bianco

indipendente. tempi in avanti è necessario partire dalle

Per calcolare il proiettore ottimale h

realizzazioni al tempo degli elementi di . Nel caso in esame si ha

n y t

 

y  

4.07

1,40 =

   

y 4.73

 

 

2,40 =

Limitando l’orizzonte della proiezione a tempi, otteniamo

h 3

       

1.20 1.27 0.65 4.07 3.29

( ) = + ⋅ =

       

E Ω

y 41 40        

1.08 1.93 0.66 4.73 5.78

       

− −

         

1.27 0.65 1.20 0.36 0.39 4.07 1.62

( ) = ⋅ + ⋅ =

         

E Ω

y 42 40          

1.93 0.34 1.08 1.17 0.81 4.73 3.58

         

− −

         

2.62 1.04 1.20 0.30 0.03 4.07 0.93

( ) = ⋅ + ⋅ =

         

E Ω

y 43 40          

− − −

3.09 0.47 1.08 0.08 0.22 4.73 1.83

          Pagina 3-5

Modulo X – Modelli VAR

3.3. La proiezione lineare

Nel paragrafo precedente è stato determinato il proiettore ottimale nel caso di

residui indipendenti. In realtà questa ipotesi è abbastanza restrittiva ma può

essere indebolita se il proiettore è ristretto alla classe di quelli lineari. In altre

parole è generalmente più conveniente utilizzare proiettori lineari con residui

semplicemente non correlati (anche se stocasticamente non indipendenti) che non

proiettori generici ma con residui indipendenti.

Mostriamo questa possibilità dapprima per i VAR(1) e poi per modelli VAR( ),

p

=

tutti con .

c 0 = =

e per ; otteniamo il modello VAR(1) scritto

Scriviamo la (1.7.2) per t n+h j h−1

nella forma −

h 1

= +

h i

y A y A u (3.3.1)

+ + −

n h 1 n 1 n h i

=

i 0

Quindi prendiamo un generico proiettore lineare nelle correnti e ritardate

y

t

= + +

ˆ (3.3.2)

y B y B y ...

+ −

n h n n

0 1 1

sono matrici di coefficienti, e costruiamo l’errore di proiezione

dove le B ( ) −

∞ h 1

∑ ∑

= − = − − +

h i

ˆ

e y y A B y B y A u (3.3.3)

+ −

+ + + −

n h n h n h 1 0 n i n i 1 n h i

=

=

i 1 i 0 ≥

per cui, sfruttando il fatto che , per , è non correlato con , per

u > 0 y 0

j i

n+j n−i

′ 

   

− −

1 1

h h

( )

~ ~ ~ ~

∑ ∑ 

′ +

=

⋅    

i i

E A u A u

E e e + − + −

+ + 1 1

n h i n h i

n h n h 

   

= =

0 0

i i 

 (3.3.4)

 

   

( ) ( )

∞ ∞

 

~ ~ ~ ~

∑ ∑

+ − − − −

h h

E A B y B y A B y B y

 

   

− −

1 0 1 0

n i n i n i n i

   

 

= =

0 0

i i 

h

= =

che è minimo, nel senso indicato sopra, per , e per ogni . Allora il

B A B 0 i > 0

0 1 i

proiettore (3.3.2) diventa = (3.3.5)

h

ˆ

y A y

+

n h 1 n

l’errore di proiezione (3.3.3) −

h 1

= i

e A u (3.3.6)

+ + −

n h 1 n h i

=

i 0 Pagina 3-6

Modulo X – Modelli VAR

e l’errore quadratico medio (3.3.4) ′

  ′

    ( )

− − −

h h h

1 1 1

( )

~ ~ ~ ~

∑ ∑ ∑

 

⋅ = =

   

i i i i

e e A u A u A Σ A

E E (3.3.7)

+ + + − + −

n h n h n h i n h i u

1 1 1 1

 

   

= = =

i i i

0 0 0

 

Per definire gli analoghi valori per il modello VAR( ) possiamo utilizzare la sua

p

trasformazione in VAR(1) operata nel paragrafo 1.9. Il proiettore (3.3.5) diventa

ˆ ˆ (3.3.8)

= =

h h

ξ F ξ F ξ

+ + −

n h n n h 1

dove sulla falsariga della (1.9.2), è

[ ] ′

ˆ = ˆ ˆ ˆ

ξ y y ... y

+ + + − + −

n h n h n h 1 n h p =

dato dalla (3.3.8) per la matrice , come effettuato

e moltiplicando ξ̂ J [I 0 … 0]

k

+

n h

nella (1.9.4), si ottiene

ˆ ˆ (3.3.9)

= = = + + +

ˆ ˆ ˆ ˆ

y J ξ J F ξ A y A y ... A y

+ + + − + − + − + −

n h n h n h 1 1 n h 1 2 n h 2 p n h p

con la quale si possono effettuare ricorsivamente le proiezioni.

D’altro canto, per ottenere l’errore di proiezione basta scrivere il modello (1.9.2)

nella forma (3.3.1) −

h 1

= +

h i

ξ F ξ F v (3.3.10)

+ + −

n h n n h i

=

i 0

e considerare che per le (3.3.8) e (3.3.10)

( )

ˆ

e = − = − =

ˆ

y y J ξ ξ

+

n h + + + +

n h n h n h n h

 

− − −

h 1 h 1 h 1

∑ ∑ ∑

= = =

i i

J F v J F v Ψ u

  (3.3.11)

+ − + − + −

n h i n h i n h i

i

 

= = =

i 0 i 0 i 0

dove si è proceduto con lo stesso sviluppo usato nella (1.9.5). −1 le cui

Dunque l’errore di proiezione è dato da una somma mobile di ordine h

i

= = −1 =

matrici dei coefficienti sono date da , ,e . Infine,

Ψ J F J′ 1, 2, …, Ψ I

i h k

0

i

l’errore quadratico medio è trovato mediante la (3.3.11)

h 1

( )

~ ~ ∑

′ ′

⋅ =

E e e Ψ Σ Ψ (3.3.12)

+ +

n h n h i u i

=

i 0 = =

Osservazione 3.1 – Ponendo nella (3.3.11) si ottiene che

h 1 e u

n+1 n+1

mostra come il residuo al tempo possa essere interpretato come l’errore

t −1

della proiezione (lineare) un tempo in avanti fatta in . In questo

t Pagina 3-7

Modulo X – Modelli VAR

innovazione

senso il residuo è interpretabile come l’ cui è sottoposto il

processo al tempo rispetto al precedente.

t Pagina 3-8

Modulo X – Modelli VAR

3.4. Il caso del valor medio nonnullo

Se ed il modello VAR( ) è dato dalla (3.1.1) si può porre

p

c 0 ( )

( ) −

1

= = − + −

E

µ y I A ... A c

1

t k p

ed ottenere il modello degli scarti (2.6.1) al quale possiamo applicare la (3.3.9). In

conclusione, il proiettore ottimale diventa

= + + + +

ˆ ˆ ˆ ˆ (3.4.1)

y c A y A y ... A y

+ + − + − + −

n h 1 n h 1 2 n h 2 p n h p entra

L’errore di proiezione (3.3.11) rimane inalterato perché in esso la costante c

positivamente in e negativamente in .

y ŷ

n+h n+ h

Ovviamente, anche l’errore quadratico medio rimane inalterato.

Esempio – Riprendiamo il modello autoregressivo di ordine 1 del paragrafo 3.2

per calcolare l’errore quadratico medio (3.3.7), relativamente ad un orizzonte di

=

proiezione pari a .

h 3

La matrice di dispersione dei residui al tempo zero del VAR(1) utilizzato è

 

2.93 2.03

=

Σ  

u 2.03 2.00

  = i

Ricordando che per i modelli autoregressivi di ordine uno vale la relazione ,

Ψ A

i 1

l’errore quadratico medio, per ciascuno degli tempi dell’orizzonte di proiezione,

h

risulta  

2.93 2.03

( )

⋅ = =

E e e Σ  

41 41 u 2.03 2.00

 

 

5.15 5.82

( )

′ ′

⋅ = + =

E e e Σ Ψ Σ Ψ  

42 42 u 1 u 1 5.82 8.61

 

 

2.58 10.43

( )

′ ′ ′

⋅ = + + =

E e e Σ Ψ Σ Ψ Ψ Σ Ψ  

43 43 u 1 u 1 2 u 2 3.61 14.81

  Pagina 3-9

Modulo X – Modelli VAR

3.5. La scomposizione della varianza dell’errore di proiezione

L’analisi delle risposte agli impulsi può essere convenzionalmente associata ad

un’analisi che produce risultati interpretabili in maniera simile, quella della

scomposizione della varianza degli errori di proiezione, dove si determina il

contributo di un impulso relativo ad una certa variabile non più alla dinamica delle

altre, bensì alla varianza dell’errore di proiezione (l’errore quadratico medio) di

queste altre tempi in avanti. Implicita in questa analisi è l’argomentazione

h

secondo la quale si ottengono utili informazioni sulle relazioni dinamiche tra le

variabili se si determina l’impatto di un impulso associato ad ognuna di esse sul

MSE di ciascuna delle altre.

L’errore di proiezione (3.3.11) tempi in avanti può essere scritto, usando la

h

scomposizione (1.6.2)

− − −

h h h

1 1 1

∑ ∑ ∑

= = =

1

e Ψ u Ψ P P u Θ w (3.5.1)

+ + − + − + −

n h i n h i i n h i i n h i

= = =

i i i

0 0 0

dove si è posto = = −1

i h

Θ Ψ P 0, 1, …,

i i

−1

=

ed i nuovi residui hanno elementi incorrelati in quanto vale la

w P u

n+h−i n+h−i

(1.6.5). ϑ l’elemento di posto ( , ) nella matrice e con ,

Se indichiamo con j m w

Θ

jm,i m,n+h−i

i

l’ -esima componente di , l’errore di proiezione tempi in avanti della -esima

m h j

w

n+h−i

componente di è

y

t −

h 1 k

∑∑

= ϑ

e w (3.5.2)

+ + −

j ,

n h jm ,

i m ,

n h i

= =

i 0 m 1

per cui, invertendo l’ordine di sommatoria e sfruttando l’ortogonalità delle

componenti residuali, si ha ( ) −

( ) k h 1

∑∑

= = ϑ

2 2

MSE y E e (3.5.3)

+ +

j ,

n h j ,

n h jm ,

i

= =

m i

1 0

h 1

∑ ϑ 2

e la quantità viene interpretata come il contributo dato dai residui della

jm ,

i

=

i 0

alla varianza dell’errore di proiezione tempi in avanti della variabile

variabile m h

. Come quota parte del MSE questa quantità vale ovviamente

j ( )

h 1

= ϑ

hjm 2

w / MSE y (3.5.4)

+

jm ,

i j ,

n h

=

i 0 Pagina 3-10

Modulo X – Modelli VAR

La (3.5.3) rappresenta la scomposizione della varianza dell’errore di proiezione in

termini dei contributi apportati dalle variabili componenti .

y

t Pagina 3-11

Modulo X – Modelli VAR

3.6. La causalità secondo Granger

Il Granger (1969) ha sviluppato una definizione di causalità in economia che, pur

criticabile ed in effetti criticata sotto diversi aspetti, ha avuto molto successo in

virtù della sua notevole operatività. La base di questa definizione consiste

nell’assumere che una variabile causa un’altra se contribuisce a prevederla

x z

t t

meglio. Quindi è una definizione fondata sul concetto di previsione,

sull’antecedenza temporale della causa rispetto all’oggetto causato e sul criterio in

base al quale si ritiene che una previsione sia “migliore” di un’altra.

Analiticamente, la definizione di causalità del Granger utilizza come criterio di

previsione “migliore” la minimizzazione dell’errore quadratico medio ottenuto

sfruttando l’insieme di informazioni disponibile al tempo e considera il vettore

t

t

di variabili causante il vettore se la matrice differenza

x z

t t

( ) ( )

{ }

− − ≤

MSE MSE t n

z Ω z Ω x (3.6.1)

+ +

n h n h t

n n { }

− ≤

per tutte le è semidefinita positiva, dove è l’insieme di tutte le

h t n

Ω x

n t

informazioni disponibili al tempo meno quella formata dai valori presenti e

n

passati di .

x

t

Se oltre la matrice (3.6.1) è semidefinita positiva anche la

( ) ( )

{ }

− − ≤

MSE MSE t n

x Ω x Ω z (3.6.2)

+ +

n h n h t

n n

causalità secondo Granger bidirezionale

, , , nel senso che sia

allora si ha una z

t

causa sia causa .

x x z

t t t

Sull’uso della definizione di causalità basata sulla (3.6.1) è necessario fare

alcune precisazioni. In primo luogo l’uso del MSE è fatto per comodità: in realtà si

potrebbero utilizzare altri criteri di misura della bontà della previsione lasciando

ugualmente valida la definizione del Granger. In secondo luogo, generalmente,

l’insieme informativo è ridotto alla conoscenza delle serie storiche di e , per

z x

n t t

proiezione lineare

; infine, la previsione di è ristretta alla . Nel prosieguo

≤ z

t n n+h

utilizzeremo la definizione con questi vincoli.

Applichiamo ora la definizione precedente al caso dei modelli VAR supponendo

che un vettore generico sia generato mediante la somma mobile (1.14.1) con

y

t

= ∞

q ∞

=

y Ψ u (3.6.3)

t i t i

=

i 0 Pagina 3-12

Modulo X – Modelli VAR

=

con e matrice di dispersione dei residui a ritardo nullo pari a .

Ψ I Σ

k

0 u

Supponiamo inoltre che il vettore sia scomponibile in due sottovettori e , di

y z x

t t t

dimensione e rispettivamente e che la (3.6.3) di conseguenza diventi

k k

1 2 ( ) ( )

   

  u

i i

z Ψ Ψ

∞ −

1 ,

t i

t 11 12

 

= =  

 

y (3.6.4)

t ( ) ( )

   

  u

i i

x Ψ Ψ

   

 

= 0

i −

2 ,

t i

t 21 22

con i nuovi vettori e matrici dotati di ordine appropriato.

Condizione necessaria e sufficiente affinché non vi sia causalità secondo

a è che la (3.6.1) sia una matrice nulla, cioè che sia, sfruttando la

Granger da x z

t t

definizione (3.3.12) di MSE, ′

( ) ( )

   

i

i

Ψ 0 Ψ 0

− −

h

h 1

1

∑ ∑ 11

11

′    

= (3.6.5)

Ψ Σ Ψ Σ u

u i

i ( ) ( ) ( ) ( )

   

i i

i i

Ψ Ψ Ψ Ψ

   

= =

i

i 0

0 21 22

21 22

, il che equivale a dire che sia

per ogni h ( ) = =

i

Ψ 0 0, 1, …

i (3.6.6)

12

= .

dovendo la (3.6.5) valere per 1, 2, …

h

p

) non è rappresentato nella forma a somma mobile ma in quella

Se il VAR(

autoregressiva ( ) ( )

 

     

i i z u

z A A

p −

t 1

t i t

11 12

 

= = +

     

y (3.6.7)

t ( ) ( )

 

     

i i z u

x A A

     

 

=

1

i −

t 2

t i t

21 22

le condizioni (3.6.6) sono equivalenti alle

( ) = =

i

A 0 1, …,

i p (3.6.6)

12

in virtù delle relazioni (1.4.5). Pagina 3-13

Modulo X – Modelli VAR

3.7. La proiezione puntuale per i modelli con parametri stimati

Se nel modello VAR( ) usato per la proiezione ottimale secondo la (3.4.1) i

p =

parametri matriciali e , , non sono noti è necessario sostituirli con le

c A 1, …,

i p

i

=

stime ed , , fornite utilizzando un qualsiasi criterio di stima, ad

ĉ 1, …,

i p

 i

esempio uno di quelli illustrati nel capitolo 2. Si ottiene la proiezione puntuale

ˆ ˆ ˆ (3.7.1)

= + + + +

* * * *

ˆ

ˆ ˆ ˆ ˆ

...

y c A y A y A y

+ + − + − + −

1 1 2 2

n h n h n h p n h p

dove ≤

= per 0

j

*

ˆ

y y

+ +

n j n j

L’errore di proiezione è in questo caso

[ ] [ ]

[ ]

= − = − + − = + −

* * * *

ˆ ˆ ˆ ˆ ˆ ˆ (3.7.2)

e y y y y y y e y y

+ + + + + + + + + +

n h n h n h n h n h n h n h n h n h n h

) sono stimati in modo

con valor medio nullo se i coefficienti matriciali del VAR(

p

incondizionatamente non distorti

non distorto. Si ha, cioè, che i proiettori sono .

Dalla (3.7.2), considerando la (3.3.11), si trae

( )

1

h

− = + −

* *

ˆ ˆ ˆ

y y Ψ u y y

+ + + − + +

n j n j i n h i n h n h

= 0

i

e da questa, tenendo conto che nel secondo membro il primo termine contiene

mentre il secondo contiene soltanto per e quindi sono

residui al tempo > y ≤

t n t n

t

variabili aleatorie incorrelate, ′

( )( ) ( )( )

 

 

− − = + − −

* * * *

ˆ ˆ ˆ ˆ ˆ ˆ

E y y y y Σ E y y y y (3.7.3)

 

 

+ + + + + + + +

n h n h n h n h h n h n h n h n h

 

 

dove −

h 1

∑ ′

=

Σ Ψ Σ Ψ (3.7.4)

h i u i

=

i 0

Da questa relazione si trae che l’errore quadratico medio di proiezione che si

ottiene quando i parametri sono stimati è maggiore di una quantità pari a

( )( )

 

− −

* *

ˆ ˆ ˆ ˆ

E y y y y (3.7.5)

 

+ + + +

n h n h n h n h

 

del MSE che si ottiene quando i parametri sono noti. Pagina 3-14

Modulo X – Modelli VAR

Nei piccoli campioni, di ampiezza , il termine correttivo (3.7.5) può essere

n

convenientemente approssimato dalla quantità , dove

Ω / n

3 h

[ ]

− −

1 1

h h ( )

∑∑ − −

′ ′

1

h i − − −

= ⋅ ⋅ ⋅

1 1

h j

Ω tr B Q B Q Ψ Σ Ψ (3.7.6)

h i u j

= =

0 0

i j

con  

0 0 0 0

1 ...

 

c A A A A

...

 

1 2 p 1 p

 

0 I 0 0 0

...

k

=

B  (3.7.7)

...

0 0 I 0 0

 

k

 

... ... ... ... ... ...

 

 

...

0 0 0 I 0

 

k

ed avendo supposto che valga la (2.3.1).

= si ha, semplicemente,

Se 1

h ( )

= + ⋅

Ω 1 Σ

kp (3.7.7)

1 u

In conclusione, nel caso di modelli con parametri stimati la proiezione puntuale

viene fatta utilizzando iterativamente la (3.7.1). Se si desidera calcolare la matrice

degli errori quadratici medi si può usare la (3.7.3) sostituendo alla la stima Σ̂

Σ h

h

ottenuta dalla (3.7.4) sostituendo alle le loro stime e a la data dalla

Ψ̂ Σ̂

Ψ Σ

i u

i u

(2.4.5). Se si vuole applicare anche il termine correttivo , lo si determina

Ω / n

h

sostituendo ai parametri della (3.7.6) le relative stime.

Esempio – Riprendiamo il modello VAR (1.8.1) stimato nel capitolo 2,

relativamente ad un orizzonte campionario di 82 osservazioni. Calcoliamo i valori

=

proiettati con tale modello in riferimento ad un orizzonte di tempi.

h 3

       

0.34 0.44 0.08 0.15 0.83 0.81

       

       

= + ⋅ − =

ˆ

y 0.36 0.04 0.01 0.41 0.11 0.70

83        

       

0.27 0.17 0.13 0.02 0.75 0.41

       

       

0.34 0.44 0.08 0.15 0.81 0.81

       

       

= + ⋅ =

ˆ

y 0.36 0.04 0.01 0.41 0.70 0.57

84        

       

0.27 0.17 0.13 0.02 0.41 0.51

       

Si veda Lütkepohl (1991, p. 87).

3 Pagina 3-15

Modulo X – Modelli VAR

       

0.34 0.44 0.08 0.15 0.81 0.82

       

       

= + ⋅ =

ˆ

y 0.36 0.04 0.01 0.41 0.57 0.61

85        

       

0.27 0.17 0.13 0.02 0.51 0.49

       

L’errore quadratico medio è dato dalla somma della (3.7.4) e dal termine correttivo

(3.7.6). La (3.7.4) si ottiene immediatamente se si ricorre alle stime

 

0.44 0.08 0.15

 

ˆ = 0.04 0.01 0.41

Α  

1  

0.17 0.13 0.02

 

e −

 

0.34 0.07 0.03

 

ˆ = −

Σ 0.07 0.90 0.01

 

u  

0.03 0.01 0.31

 

introdotte nel paragrafo 1.8. Si ha dunque

 

0.34 0.07 0.03

 

ˆ ˆ

= = −

Σ Σ 0.07 0.90 0.01

 

1 u  

0.03 0.01 0.31

 

 

0.42 0.04 0.06

 

ˆ ˆ ˆ ′

= + = −

Σ Σ A Σ A 0.04 0.95 0.02

 

2 u 1 u 1  

0.06 0.02 0.33

 

 

0.44 0.03 0.07

′  

( )

ˆ ˆ ˆ ˆ

= + + = −

2 2

Σ Σ A Σ A A Σ A 0.03 0.96 0.02

 

3 1 1 1 1

u u u  

0.07 0.02 0.34

 

Per ricavare il termine correttivo (3.7.6) è necessario anzitutto costruire la matrice

 

1 0 0 0

 

0.34 0.44 0.08 0.15

 

=

B  

0.36 0.04 0.01 0.41

 

0.27 0.17 0.13 0.02

 

dove si sono evidenziati le singole componenti rappresentate dallo scalare 1, dal

vettore nullo di dimensioni , dal vettore e dalla matrice ,

(3×1) Â

1

rispettivamente. La matrice Pagina 3-16

Modulo X – Modelli VAR

− − −

 

3.34 1.73 0.68 1.11

 

− −

1.73 2.41 0.09 0.52

 

− =

1

Q  

− −

0.68 0.09 1.11 0.11

 

− − −

1.11 0.52 0.11 3.25

 

è stata calcolata nel paragrafo 2.5, per cui si ha

 

1.36 0.28 0.12

 

( ) ˆ

= + ⋅ = −

kp

Ω Σ

1 0.28 3.60 0.04

 

1 u  

0.12 0.04 1.24

 

[ ] ˆ

ˆ ˆ

′ ′ ′

 

= ⋅ ⋅ ⋅ ⋅ + ⋅ ⋅ +

1

Ω B Q B Q Σ B Σ A

tr tr

 

2 1

u u

[ ]

ˆ ˆ ˆ

ˆ ˆ ′

 

+ ⋅ ⋅ ⋅ ⋅ + ⋅ ⋅ ⋅ =

1

Q B Q A Σ I A Σ A

tr tr

  1 4 1 1

u u

 

1.22 0.13 0.32

 

= 0.13 1.45 0.41

 

 

0.32 0.41 0.68

 

( ) ( )

    ˆ

ˆ ˆ

2 2

′ ′ ′

− −

= ⋅ ⋅ ⋅ ⋅ + ⋅ ⋅ ⋅ ⋅ ⋅ +

1 2 1

Ω B Q B Q Σ B Q B Q Σ A

tr tr

   

3 1

u u

( )

( )

  ˆ ˆ

ˆ ˆ

2

′ ′

 

+ ⋅ ⋅ + ⋅ ⋅ ⋅ ⋅ ⋅ +

2 1 2

B Σ A B Q B Q A Σ

tr tr  

  1 1

u u

( )

[ ]

ˆ ˆ ˆ ˆ

ˆ ˆ

′ ′ ′

 

+ ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ + ⋅ ⋅ ⋅ +

1 2

B Q B Q A Σ A B A Σ A

tr tr

  1 1 1 1

u u ˆ

ˆ ˆ

ˆ ˆ ′

   

− −

+ ⋅ ⋅ ⋅ ⋅ + ⋅ ⋅ ⋅ ⋅ ⋅ +

1 2 2 1 2

Q B Q A Σ Q B Q A Σ

tr tr A

   

1 1 1 1

u u

( )

[ ] ˆ ˆ

ˆ

+ ⋅ ⋅ ⋅ =

2 2

tr I A Σ A

u

4 1 1

 

1.23 0.22 0.39

 

= 0.22 1.23 0.37

 

 

0.39 0.37 0.51

 

L’errore quadratico risulta in definitiva −

 

0.36 0.07 0.03

Ω  

( ) ˆ

⋅ = + = −

* * 1

E e e Σ 0.07 0.94 0.01

 

83 83 1 82  

0.03 0.01 0.33

  Pagina 3-17


PAGINE

31

PESO

261.99 KB

PUBBLICATO

+1 anno fa


DESCRIZIONE APPUNTO

Appunti di Econometria per l'esame del professor Carlucci sulla proiezione e causalità. Gli argomenti trattati sono i seguenti: la proiezione puntuale, il caso del rumore bianco, la proiezione lineare, il caso del valor medio nonnullo, la scomposizione della varianza dell’errore di proiezione, la causalità secondo Granger, la proiezione puntuale per i modelli con parametri stimati, le risposte all’impulso e scomposizione della varianza dell’errore di proiezione per i modelli con parametri stimati, il test di non causalità secondo Granger, la proiezione intervallare, il test di cambiamento strutturale.


DETTAGLI
Esame: Econometria
Corso di laurea: Corso di laurea in economia
SSD:
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher valeria0186 di informazioni apprese con la frequenza delle lezioni di Econometria e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università La Sapienza - Uniroma1 o del prof Carlucci Francesco.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Econometria

Modelli autoregressivi vettoriali
Dispensa
VAR di cointegrazione
Dispensa
Inferenza statistica
Dispensa
Identificazione e VAR strutturali
Dispensa