Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

Tale relazione consente di :

1. conosciuto un certo AR(p), cioè una volta

noti i , si possono calcolare le autocov.

i

teoriche corrispondenti;

2. se non si conoscono i si possono

i

stimare sostituendo ai valori teorici delle

autocov. i corrispondenti valori

k

campionari c ottenuti dalla serie storica

i

osservata.

Autocorrelazione

 

Dividendo si ha:

k 0

          

...

  

k 1 k 1 2 k 2 p k p

k = 1,2,3,…

  1

In cui partendo da si ottengono in

0

forma ricorsiva tutti i coefficienti di

12

autocorrelazione teorica.

Ovviamente vale quanto detto in 1. e 2.

Correlogramma

Dalla si vede come il corr. di AR(p) è

k

costituito da infiniti termini.

Si dimostra che tali termini, a seconda dei

valori dei parametri, tendono a zero

monotonicamente oppure con oscillazioni.

Casi particolari.

AR(1)

  

z z a

t 1 t 1 t

Il valore della serie al tempo t è pari ad una

frazione del valore precedente aumentato

a

(algebricamente) dell’errore .

t 13

  0

,

5

Es: supponiamo .

1

Allora graficamente:

z

z 1  

t z 0

,

5 z a

2 1 2

a 2

0

,

5 z 1 0

,

5 z  

z 0

,

5 z a

2 3 2 3

 a 3 t

3

1 2  

 

a v .

c

. , E a 0

t t

innovazione

Stazionarietà

Dal caso generale, siccome le radici

dell’equazione caratteristica, cioè

   

    

B 1 B 0

1

sono esterne al cerchio unitario, allora : AR(1)

  1

è stazionario se e solo se 14

1

Media

   

Se allora

 

E a 0 E z 0

t t

Varianza  

Dalle relazioni di e di AR(p) si ricava

k 0

2

 a

 

0 2

 

1   0

da cui risulta che, siccome allora

0

2

   

1 1

, cioè , come rilevato per

la condizione di stazionarietà.

Autocovarianza

Si dimostra (Nelson, Piccolo) che

2

 k

a

  

k 2

 

1 15

che utilizzando la relazione per diviene:

0

k

   

k 0 k

  

Autocorrelazione k

Correlogramma 

A seconda del segno di si ha:

1   0

  0

1

0  1

Autocorrelazione parziale

Si dimostra (Kendall) che

   

k 1

 1 1

  

k k 

0 k 1

 16

Non stazionarietà   1

La stazionarietà si ha per 1

 

z z a

  1

Se allora Random

t t 1 t

1 Walk

(non stazion. omogenea (*))

  1

Se allora il processo assume un

1

andamento esplosivo tipo reazione nucleare.

(*) considerando successivi intervalli

temporali questi hanno dei componenti

sostanzialmente uguali. 17

Random walk

stazionarietà

non omogenea

 

z z a

t t 1 t

Stazionario

 

z 0

,

35 z a

t t 1 t

Esplosivo

 

z 1

, 2 z a

t t 1 t

18 Simula-

t a z t a z

t t t t

0 -1 0,5 30 -1,2 -0,95 zione

1 -1,6 -1,4 31 0,3 -0,08

-0,4 -0,96 0,6 0,57 AR(1)

1,3 0,92 1,5 1,73

-0,4 -0,03 -0,9 -0,21

0,7 0,68 -0,3 -0,38

1,2 1,47 -0,4 -0,55

0,4 0,99 -1,2 -1,42

0,9 1,29 1,0 0,43

-0,1 0,42 -1,3 -1,13

10 -0,3 -0,13 40 0,4 -0,05

-0,1 -0,15 0,0 -0,02

0,2 0,14 0,5 0,49

-0,6 -0,54 2,1 2,29

-0,4 -0,62 -0,5 0,41

-0,4 -0,64 2,1 2,26

-0,9 -1,16 0,4 1,30

0,0 -0,46 0,8 1,32

0,3 0,11 0,6 1,13

-1,6 -1,55 0,1 0,55

20 -0,4 -1,02 50 0,4 0,62

-0,8 -1,21 0,5 0,75

-0,1 -0,58 -0,4 0,1

0,0 -0,23 3,3 3,26

1,2 1,11 0,4 1,7

-0,1 0,34 -0,1 0,58

0,4 0,54 1,4 1,63

-0,8 -0,58 1,1 1,75

-0,2 -0,43 -3,7 -3,0

0,8 0,63 -1,1 -2,3

60 -0,1 -1,02

4

3

2

1

Zt 0

-1 1 11 21 31 41 51 61

-2

-3 t 19

   

E z 0 ; z 0

,

17

 r

k t

k k molto vicini

1 0,4 0,486

2 0,16 0,341 non vicini

3 0,064 0,281

4 0,0256 0,029

5 0,01024 -0,011

6 0,0041 -0,149 oscilla

7 0,00164 -0,002

8 0,0007 0,054

9 0,0003 0,095

10 0,0001 0,066

0,6 0,6

0,5 0,5

0,4 0,4

0,3 0,3

0,2 0,2

0,1 0,1

0

0

-0,1 -0,1 1 2 3 4 5 6 7 8 9 10

1 2 3 4 5 6 7 8 9 10 -0,2

-0,2 r

 k

k 20

Processo autoregressivo di 2° ordine

    

z z z a

 

t 1 t 1 2 t 2 t  

2

    

, , a N 0 , su t

parametri

1 2 t a

Stazionarietà

Le radici dell’equazione caratteristica

devono essere esterne al cerchio unitario.

Equazione caratteristica

  2

      

B 1 B B 0

1 2

Si dimostra che per soddisfare tale

condizione si devono verificare, come

vedremo poco sotto (correlogramma) le

seguenti disuguaglianze

    1

 2 1

     1

 2 1

    

1 1

2 21

Le disuguaglianze individuano nel piano

 

, la seguente regione triangolare:

1 2 1 0

-1

 2

-2 0 2

 1

Media 

Modello completo (con costante )

       

      

E z E z E z E a

 

t 1 t 1 2 t 2 t

     

     

E z E z E z

 

t 1 t 1 2 t 2

    

1 1 2

Si può facilmente dimostrare che

 

 

z z E z , cioè gli scarti dalla media,

*t t t       

z z 1

*

siccome: t t 1 2

Sono anch’essi AR(2), senza costante

22

Varianza

Piccolo (1970) ha dimostrato che

varianza

2

        

0 1 1 2 2 a

       autocov.

1 1 0 2 1 lag 1,2

      

2 1 1 2 0 

e che…… k > 2 , è ottenibile dalla usuale

k

relazione di Yule-Walker

       autocov. gen.

 

k 1 k 1 2 k 2

Quindi:

     

1 1 1 2 autocorr.

     

2 1 1 2

      

 

j 1 j 1 2 j 2 23

Correlogramma

Essendo l’eq. cartesiana di 2° grado, infatti:

2

    

1 B B 0

1 2

Il correlogramma può assumere forme più

numerose di AR(1), perché le radici possono

essere:

• reali e disuguali

• reali e coincidenti

• complesse e coniugate.

La forma del correlogramma dipende dai

valori assunti dalle soluzioni dell’equazione

Caratteristica. Box & Jenkins hanno

dimostrato che in caso di radici reali si ha:

andamenti

smorzati

24

In caso di radici complesse: andamenti

sinusoidali

smorzati

Autocorrelazione parziale

Box & Jenkins dimostrano che:

2

  

2 1

      

, , 0

1

1 1 2 2 k k

2

 

1 1

Questi due soli valori hanno andamenti

diversi a seconda che le radici siano reali o

complesse 25

t a z t a z

t t t t

0 -1 0,5 30 -1,2 -0,861

1 -1,6 0,5 31 0,3 0,776

-0,4 -0,6 0,6 -0,038

1,3 1,76 1,5 1,678

-0,4 -1,576 -0,9 -1,915

0,7 1,998 -0,3 1,185

1,2 -0,314 -0,4 -1,494

0,4 0,988 -1,2 -0,067

0,9 0,244 1,0 1,339

-0,1 -0,048 -1,3 -2,116

10 -0,3 0,039 40 0,4 1,938

-0,1 -0,133 0,0 -1,586

0,2 0,288 0,5 1,84

-0,6 -0,799 2,1 -1,329

-0,4 0,137 -0,5 0,661

-0,4 -0,642 2,1 1,439

-0,9 -0,488 0,4 -0,331

0,0 0,164 0,8 1,285

0,3 0,495 0,6 -0,237

-1,6 0,104 0,1 0,499

20 -0,4 -0,363 50 0,4 0,054

-0,8 -0,561 0,5 0,568

-0,1 0,164 -0,4 -0,73

0,0 -0,211 3,3 3,852

1,2 1,359 0,4 -2,057

-0,1 -0,957 -0,1 1,904

0,4 1,246 1,4 -0,154

-0,8 -1,738 1,1 1,574

-0,2 1,092 -3,7 -4,675

0,8 -0,203 -1,1 2,02

60 -0,1 -2,247

4

3

2

Zt 1

0 1 10 19 28 37 46 55

-1

-2 t 26

Simulazione di un AR(2)

   

z 0

,

6 z 0

, 2 z a

 

t t 1 t 2 t

 

z z 0

,

5

partenza 0 1

Condizioni di stazionarietà:

     

0

, 4 1 si

1 2

    

0

,

8 1 si

2 1

  

1 0

, 2 1 si

z è quindi stazionario.

t

Utilizzando scarti normali standardizzati si

ottengono i valori tabulati con il relativo

andamento grafico.   

, ,

Poi, utilizzando le relazioni viste per 1 2 k

r

Si calcoli la funzione di autocorrelazione e

k

dai valori simulati la 27

campionaria.

 

r r

k k

k k k k

1 -0,75 -0,68 6 0,32 0,01

2 0,65 0,52 7 -0,27 0,10

3 -0,56 -0,24 8 0,22 -0,17

4 0,45 0,22 9 0,19 0,18

5 -0,38 -0,15 10 0,16 -0,15

Correlogrammi

 r

k k

Autocorrelazione parziale

    

0

,

75 ; 0

, 2

1

1 2 2

  

r 0

,

674 ; r 0

,

095

1

1 2 2 28

PROCESSO A MEDIA MOBILE MA(q)

Il processo MA(q) è solamente costituito da

un numero finito di q termini, cioè:

     

z a a ... a

 

t t 1 t 1 q t q

Introducendo l’operatore B si ha:

 

2 q

       

z 1 B B ... B a

t 1 2 q t

che diviene:  

 

z B a

t t

Dove   2 q

        

B 1 B B ... B

1 2 q

Denota il cosiddetto operatore MA(q).

29

Stazionarietà

Siccome l’operatore MA(q) è una serie finita,

non esistono particolari restrizioni per

assicurare la stazionarietà

Invertibilità (vedi dopo per maggior dettaglio)

Un MA(q) è invertibile quando le radici

dell’equazione caratteristica

  2 q

         

B 1 B B ... B 0

1 2 q

sono esterne al cerchio unitario.

Media a

Se le hanno media nulla, è nulla pure la

t

media del processo, quindi:

  

E z 0

t 30

Autocovarianza, varianza e autocorrelazione

Tenendo conto delle relazioni già viste per il

processo lineare si ha:

  2

             

...

  

k 1 k 1 2 k 2 q q k a

 

k  

0 per k q

con k = 1,2,…,q.

Da cui la varianza:

 

2 2 2 2

         

1 ...

0 1 2 q a

e quindi la autocorrelazione:

        

...

 

k 1 k q q k 

; k 1

, 2

,..., q

 2 2

      

1 ...

k 1 q

 

0 per k q

 

 

i 1

, 2

, ... k

Se i valori sono noti, oppure

i 

stimati, si possono ricavare i parametri .

i

Ovviamente essendo non lineare la relazione

funzionale, occorre utilizzare metodi iterativi.

31

  

, ,

Si noti che siccome sono

k 0 k

indipendenti da t , MA(q), come prima

visto, è sempre stazionario.

Invertibilità di AR(p) e invertibilità di

MA(q)

Condizione di invertibilità

Tale condizione è molto importante

soprattutto a proposito dei modelli MA(q),

dal momento che questi ultimi, a differenza

degli AR(p), sono caratterizzati dal problema

della molteplicità dei modelli.

Invertibilità per AR(p)

 

2 p

       

1 B B ... B z a

1 2 p t t

Invertendo si ha: 1

z a

t t

2 p

      

1 B B ... B

32

1 2 p

Sviluppando in serie il rapporto evidenziato

2 2

in rosso si ha:     

1 B B ...

per cui:  

2 2

     

z 1 B B ... a

t t

che altro non è (come vedremo fra poco) se

non un .

MA ( )

Quindi: un AR(p) è sempre trasformabile in

un .

MA ( )

Invertibilità di MA(q)

z t  a t

 

 B

Sviluppando in serie

1 2

     

1 B B ...

1 2

 

 B

 

2

     

1 B B ... z a

Quindi: 1 2 t t

AR ( )

che è un 33

Il processo MA(q) si dice allora invertibile se

i pesi formano una serie convergente e

i  

 B

questo si ottiene se e solo se le radici di

sono esterne al cerchio unitario.

La condizione di invertibilità, pertanto, ha

per i processi MA(q) la stessa importanza che

ha la condizione di stazionarietà per i

processi AR(p).

Processo MA(1)

  

z a a 

t t t 1

Stazionarietà sempre

   

 

E a 0 E z 0

Media: se anche:

t t

 

2 2

    

1

Varianza 0 a 2

       

; 0 , k 1

Autocovarianza 34

1 a k

Autocorrelazione

 

1

      

; 0 , k 1

1 k

2

  

1

0

Correlogramma

1 1

 

k k

k k

-1 -1

Una sola ordinata positiva o negativa, a

seconda del segno di . 35

Invertibilità

Si considerino due MA(1), uno con

parametro e un altro con , cioè:

1 1

    

z a a e z a a

 

t t t 1 t t t 1

Calcoliamo . Si ha:

k

     

1

   

    

z ; z

1 1

2 2 2

     

1 1 1 1

Quindi i due processi, pur diversi, hanno la

stessa , quindi esiste un problema di

k

molteplicità di modelli.

Per risolverlo si consideri:

2

     

a z z z ...

 

t t t 1 t 2

1 1

   

   

a z z z ...

 

t t t 1 t 2

2

  36

Ricorrendo all’operatore B si ha:

 

2 2

     

a 1 B B ... z

t t

 

1 1

 

2

 

   

a 1 B B ... z

 

t t

2

 

 

  1

Se la prima serie converge, mentre

la seconda no.

  1

Allora se si dice che la prima serie è

invertibile, mentre la seconda non lo è.

  1

Quindi la condizione assicura

l’esistenza di un unico modello MA(1).

Tale condizione equivale a dire che le radici

  

1 B 0

della equazione caratteristica:

siano esterne al cerchio unitario. 37

Autocorrelazione parziale

Box & Jenkins dimostrano che

 

k 2

   

1

  

, k 1

, 2

,

3

 

k k 

2 k 1

 

1

Da cui si vede come i coefficienti di

autocorrelazione parziale hanno un

andamento smorzato, anche con oscillazioni

di segno.

Processo MA(2)

    

z a a a

 

t t 1 t 1 2 t 2

Stazionarietà sempre stazionario

Invertibilità

Il processo è invertibile se le radici

2

    

1 B B 0

dell’equazione caratteristica 1 2

38

sono in valore assoluto maggiori di uno.

Si dimostra che tale condizione si verifica se:

    1

 2 1

     1

 2 1

    

1 1

2

che individuano il seguente triangolo isoscele

0

 2

-2 -1 2

1

Media

   

 

E a 0 E z 0

Se anche

t t 39

Varianza, autocovarianza, autocorrelazione

    

 

2 2 2 1 1 2

        

1

0 1 2 a 1 2 2

   

1 1 2

 

  2 2

         

1 1 1 2 a 2 2 2

   

1 1 2

2

    

2 2 a

   

0 0

k k

Radici reali

   

0 0 correlo-

1 1 gramma

Radici complesse

   

0 0

1 1 40

Autocorrelazione parziale espressione

formale in Anderson

Radici reali:

Radici complesse: 41

Principio di dualità tra AR(p) e MA(q)

Stazionarietà invertibilità

1) Le radici dell’eq.

 

 

B 0

MA incondizionata devono essere esterne

al cerchio unitario

Le radici dell’eq.

 

 

B 0

AR incondizionata

devono essere esterne

al cerchio unitario

2) Un AR(p) può essere sempre espresso come

MA ( )

una media mobile di infiniti termini, cioè

Un MA(q) può essere espresso, se invertibile,

AR ( )

come un processo autoregressivo infinito, cioè

.  k

3) I coefficienti di autocorrelazione totale

di un MA(r ) si comportano analogamente ai

k k

42

coeff. di autocorrelazione parziale di un

AR(r ). 

I coefficienti di un MA(r) si comportano

k k 

in modo analogo ai coefficienti di un

k

AR(r)

Esempi:

 

k AR(1) MA(1)

k

 

k k k k

 

k k

AR(2) MA(2)

 

k k k k 43

Processo ARMA(pq)

      

AR ( p ) z z ... z a (*)

 

t 1 t 1 p t p t

residuo o “innovazione”

 

2

 

N 0 , , indipend.

a

Se non segue tali ipotesi, ma invece si

t

comporta come una media mobile di ordine

q e quindi risulta:

    

a a ... a

 

t 1 t 1 q t q

Sostituendo in (*) si ha: ( )

     

z z ... z

 

t 1 t 1 p t p

     

a a ... a

 

t 1 t 1 q t q

che è un processo misto autoregressivo di

ordine p, con media mobile di ordine q, cioè

un ARMA(pq). 44

Usando l’operatore B si ottiene:

   

  

B z B a

t t

dove

  2 p

        

B 1 B B ... B

1 2 p

  2 q

        

B 1 B B ... B

1 2 q

Stazionarietà

Per la condizione di stazionarietà della

componente AR(p), le radici dell’equazione

  p

       

B 1 B ... B 0

1 p

devono essere esterne al cerchio unitario.

Invertibilità

Analogamente, per MA(q) le radici di

  q

       

B 1 B ... B 0

1 q

devono anch’esse essere esterne al cerchio

unitario. 45

Media

Se ARMA(pq) è completo, cioè è presente

anche una costante :  

   

       

E z E z ... E z

 

t 1 t 1 p t p

 

   

     

E a E a ... E a

 

t 1 t 1 q t q

da cui: 

  

E z t     

1 ...

1 p

 

  

0 , E z 0

Per cui se t

Autocovarianza   z

 k

Si indichi con la covarianza tra e

t

z a

a , quindi:

t   

  

   

k E z z a a

z a t k t 46

z

Moltiplicando ( ) per e considerando la

t k

media, si ha:    

             

... k k 1

 

k 1 k 1 p k p z a 1 z a ( )

 

    

k q , k q

q z a

z a

Siccome dipende dai valori generati

t k j

fino a j = t-k , segue che:

   

E a z 0 , j 0

t t j

   

E a z 0 , j 0

t t j   0

Quindi se k>q le e allora la

a z

relazione ( ) si riduce a:

          

...

  

k 1 k 1 2 k 2 p k p

47

Varianza per k=0  

2

             

... 1 ...

0 1 1 p p a 1 z a

 

    q

q z a

Autocorrelazione

          

...

  

k 1 k 1 2 k 2 p k p

Autocorrelazione parziale

Se ARMA(pq) è invertibile,

 

 B

a z

t t

 

 B  

1 B

Siccome la serie è infinita, anche

l’autocorrelazione parziale è infinita, con

un andamento simile all’autocorrelazione

parziale di un MA(q). 48

Modelli Box & Jenkins per serie non

stazionarie in media (modelli ARIMA)

Quando le condizioni di stazionarietà

richieste per i modelli BJ non sono presenti si

possono avere due forme di non stazionarietà:

quella esplosiva

quella omogenea

Si ha la prima quando almeno una radice

dell’equazione caratteristica è in modulo < 1.

Si ha la seconda quando almeno una delle

radici dell’equazione caratteristica è unitaria

(cioè sul cerchio di raggio unitario).

I fenomeni socio-economici ben difficilmente

presentano non stazionarietà esplosiva,

limitandosi a forme omogenee, così dette

perché a parte variazioni nel livello e/o

nell’andamento di fondo (trend), la serie è di

tipo stazionario. 49

In altri termini la serie non è

temporaneamente costante nel suo livello

medio, ma comunque tende a disporsi

stabilmente intorno a tale livello medio.

Trasformazioni stazionarizzanti.

Una serie storica in cui è presente una non

stazionarietà omogenea è facilmente

trasformabile in una di tipo stazionario

prendendo un adeguato numero di

differenze successive.

Esempio:

z non stazion.

t omogenea

 

z t stazion.

z z 

t t 1 50

Un possibile modo di rappresentare una serie

storica non stazion. omogenea è introdurre in

un modello ARMA(pq) un operatore alle

differenze finite di ordine opportuno.

Integrando le componenti AR(p) e MA(q)

con la componente I(d) si ha il modello

ARIMA(p,d,q).

Per definire formalmente tale modello si

deve prima definire l’operatore

autoregressivo generalizzato

  

2 p d

       

B 1 B B ... B

1 2 p d

che è un polinomiale di grado p+d con d

radici uguali ad 1 e le altre p radici maggiori

di 1.

Pertanto:    

    

2 p d

    

B 1 r B 1 r B , ... , 1 r B

1 2 p d

   

    d

2 p

    

1 r B 1 r B , ... , 1 r B 1 B

51

1 2 p

Questo perché d radici sono unitarie.

I fattori della parte destra dell’equazione

meno l’ultimo sono niente altro che

 

l’operatore di un AR(p) stazionario.

 B

Quindi: d

    

   

B B 1 B

Cioè:     

d

   

B z B 1 B z

t t

  d

  

B z t *

 

  B a t

che scritto per esteso diviene:

     

z z ... z

   

t t 1 p d t p d

     

a a ... a

 

t t 1 q t q 52

d

 

w z

Pertanto se t t

La * diviene:

   

  

B w B a

t t

che altro non è se non un ARMA sulle

z

differenze di ordine d dei valori .

t

d

 z w

Quindi sostituendo con il

t t

processo ARIMA(p,d,q) sulla variabile si

z t

w

riduce ad un ARMA(pq) sulla variabile .

t

 

Allora il processo non stazionario è

B

esprimibile come combinazione del processo

 

 B

stazionario e dell’operatore alle

d

 

differenze .

d

  

1 B

Tale combinazione determina il processo

integrato ARIMA(p,d,q) che pertanto è parte

di una classe di processi più ampia di quelli

ARMA che da essa discendono. 53

La terminologia “integrato” deriva poi dalla

seguente notazione:

siccome abbiamo definito

 

w z z 

t t t 1

ed evidentemente

   

    

z z z z z ...

  

t t t 1 t 1 t 2

Allora:    

z w w w ...

 

t t t 1 t 2

z

cioè la serie risulta essere la somma di

t

tutte “le variazioni“ del fenomeno fino al

tempo t compreso.

Ciò determina, in analogia con le funzioni

continue, una sorta di integrazione sulla

w

variabile .

t

Il processo ARIMA(p,d,q) è poi

caratterizzato dall’essere di tipo

“omogeneo”, indipendente cioè dal livello

z 54

assunto da .

t

Si aggiunga infatti nel modello che esprime

z una costante arbitraria a tutti i termini

t

fino a quello di ordine t-1 ; in altri termini:

  

   

       

z z c z c z c ...

  

t t 1 1 t 1 t 2

  

 

      

z c z c a

 

p t p t 2 t

    

a ... a

 

1 t 1 q t q

che è come dire:

z t  

 

       

z z z ... z z

 

 

     

t 1 1 t 1 t 2 p t p t p 1

  c

 

    

a a ... a

 

 

t 1 t 1 q t q

Cioè con l’aumento di tutti i termini della

costante c, anche risulta aumentato di c.

z t

Quindi una serie non stazionaria ma

omogenea si comporta come una serie

stazionaria, poiché il suo andamento è

55

indipendente dal livello della serie.

Casi particolari di ARIMA(p,d,q)

Assegnando valori particolari ai parametri si

determinano casi di notevole interesse

applicativo.

caso completo ARIMA(1,1,1)

Modello:

   

     

1 B z 1 B a

1 t 1 t

riscrivibile come

   

    

1 B w 1 B a

1 t 1 t

Il grafico che segue è relativo ad una

  0

,

8

configurazione simulata con e

1

  0

, 4

1 ; la riproduzione di configurazioni

empiriche di carattere socio-economico è

abbastanza evidente. 56

z t t

Caso incompleto ARIMA(1,1,0) ARI

Modello  

   

1 B z a

1 t t

Una rappresentazione simulata, con   0

,

3

mostra anch’essa l’aderenza a possibili

57

configurazioni empiriche.

caso incompleto ARIMA(0,1,1) IMA

 

   

z 1 B a

Modello t 1 t

  0

,

6

1

caso incompleto con costante

Se in un ARIMA(p,d,q) le differenze prime:

 

w z z sono stazionarie, la presenza

t t t 1

di una costante in AR provoca una media

diversa da 0 data da: 

  

E w t       

1 ...

1 2 p 58

 0

Se ciò significa che la media delle

differenze prime tende a crescere o a

decrescere.

Quindi la costante introduce un trend

crescente o decrescente   0

,

5

Modello ARIMA(1,1,1) con e

   

1

,

3 0

,

8

parametri .

1 1

Ponendo nella * :

  d

w z

t t

   

  

B w B a

t t 59

Che è un ARMA applicato alle differenze di

z

ordine d degli , invece che ai valori

z t

t

medesimi. d

 z w

In altri termini, sostituendo con ,

t t z

il processo ARIMA(p,d,q) sulla variabile t

si riduce ad un processo ARMA(p,q)

w

applicato alla variabile .

t

In questo modo il processo non stazionario è

espresso in funzione dell’operatore

 

 B

stazionario e dell’operatore alle

d

 

d

  

1 B

differenze finite .

Ovviamente la classe di modelli

ARIMA(p,d,q), essendo ancor più generale

di quella ARMA, include gli stessi.

60

MODELLO DI REGRESSIONE LINEARE

MULTIPLA

1. Il problema

2. Specificazione del modello

3. Le assunzioni

4. Stimatori OLS e proprietà

2

5. R , variabilità totale , spiegata , residua

6. Previsione

7. Variabili dummy

8. Specificazione del modello

9. Violazioni delle ipotesi del modello

1

1. IL PROBLEMA

• Ricerca di un modello matematico in grado di

esprimere la relazione esistente tra una variabile

di risposta y (quantitativa) e ( ad esempio) k

variabili esplicative

• Si tratta di una relazione asimmetrica del tipo

 

y f x ... x

1 k

Nel caso del modello di regr.lineare multipla

abbiamo che:       

f x ... x x x ... x

1 k 1 1 2 2 k k

che geometricamente corrisponde ad un iperpiano a

k dimensioni

• Perché si studia tale modello

i) facilità con cui può essere interpretato un

iperpiano a k dimensioni 

ii) Facilità di stima dei parametri incogniti j

( j = 1…k)

Nella realtà studiamo un modello del tipo

 

 

y f x ... x u

1 k

Componente componente 2

sistematica casuale

2. IL MODELLO

        

y x x x ... x u

i 1 i 1 2 i 2 3 i 3 k ik i

In forma matriciale

  

y X u

dove

y : vettore (n 1) di osservazioni sulla

x

variabile dipendente

X

: matrice (n k) di osservazioni su

x

k regressori

 : vettore (k 1) di parametri incogniti

x

u : vettore (n 1) di disturbi stocastici

x 3

Le matrici e i vettori sono così definiti

y x x . . . x

   

1 11 12 1 k

   

   

y x x . . . x

2 21 22 2 k

   

   

. . . . . . .

   

 

y X

   

 

. . . . . . .

n k

 

n 1    

   

. . . . . . .

   

   

y x x . . . x

   

n n 1 n 2 nk

 u

   

1 1

   

   

 u

2 2

   

   

. .

   

  

u

   

 

. .

n 1

 

k 1    

   

. .

   

   

 u

   

k n

N.B.

La matrice X ha la prima colonna unitaria nel

caso in cui si consideri un modello con

intercetta nel sistema di riferimento

1 4

multidimensionale

3. LE ASSUNZIONI DEL MODELLO

1) Esiste legame lineare tra variabile

dipendente e regressori

2) Le variabili sono tutte osservabili

3) I coefficienti non sono v.c.

i

4) I regressori X sono non stocastici

5) Il termine u non è osservabile

  

E u 0

6) i 

0 per i j

  

Cov u , u 

7) i j 2

 

per i j

 le u sono omoschedastiche ed incorrelate

i 2

 

 0 0 . . 0

 

2

0 0 . . 0

 

 

 

E u u  

. . . . . .

 

 

2

0 0 . . .

 

8) X ha rango pieno rank (X) = k

n k

condizione necessaria

 

2

u 

N 0

, I

9) hp aggiuntiva da

5

utilizzare nell’analisi inferenziale

4. STIMATORE OLS

y = X + u

Si cercherà quel vettore che minimizza

̂

gli scarti al quadrato:

2

n  

  

min y X

i i

i

:

1

dove X è la riga i-esima di X

i

In forma matriciale

 

ˆ

   

e u y X

  

   

    

min e e o min y X y X

   

   

     

Q e e y X y X

   

  

  

   

y X y X

 

     

     

y y X y y X X X

    

=

perché scalare

Q  

    

2 X y 2 X X 0 (1)

  6

    

 

k n n 1

perché 1 1 1 . 1 y

   

1

   

   

x x . . x y

21 22 2 n 2

   

 

1 k

     

    

X y ... x x . . x .

1 k 31 32 3 n

   

   

. . . . . .

   

   

x . . . x y

   

è uno scalare k 1 kn n

     

    

  

X y X y y X

dalla (1) si ottiene

 

 

2 X X 2 X y

 

 

 

X X X y

pre-moltiplicando ambo i membri

 

1 1

     

   

 

X X X X X X X y

perché rank (X’X) = rank (X) = k

X’X è a rango pieno ovvero invertibile

ˆ 1

  

stimatore OLS di

 

  X X X y 7

CARATTERISTICHE STIMATORE OLS

Teorema di Gauss-Markov

è uno stimatore di tipo BLUE

̂

Best Linear Unbiased Estimator

ovvero ha varianza minima nella classe degli

stimatori Lineari e Corretti

ˆ 1

 

 

  X X X y

1. 1

 

 

X X X

La matrice è formata da elementi

̂

costanti per cui è una trasformazione lineare

di y . ˆ  

1 1

     

   

    

X X X y X X X X u

2.  

   

1 1

   

  

X X X X X X X u

1

 

 

   X X X u



ˆ  1

   

 

     

E X X X E u

È uno stimatore corretto

 

ˆ 1

 

 

Inoltre:     X X X u 8

 

   

ˆ ˆ ˆ

       

Var E

3.  

 

 

 

1 1

   

   

 E X X X u u X X X

 

 

1 1

   

   

 X X X E u u X X X

 

1 1

   

2

  

 

X X X I X X X

  

1 1 1

     

2 2

   

   

X X X X X X X X 

 

  

ˆ ˆ

Si consideri più in dettaglio      

E :

 

 

       

2

 

ˆ ˆ ˆ ˆ ˆ

              

E E . . E

 

1 1 1 1 2 2 1 1 k k

 

    

2

ˆ ˆ ˆ

        

E E . . .

 

1 1 2 2 2 2

 

. . . . .

 

    

 

2

ˆ ˆ ˆ

        

E . . . E

 

k k 1 1 k k

 

2

ˆ

  

E

Pertanto la varianza di ogni parametro

j j

̂ si desume prendendo il corrispondente valore

j  1

 

X X

sulla diagonale principale della , moltiplicato

2

per :    

ˆ  1

  2

  

Var X X

j jj 9

Definiamo uno stimatore alternativo lineare e

corretto

ˆ

 

 

  C y x

dove C è una matrice (n k)

  1

   

  

X X X y C y

1

   

   

     

X X X X u C X C u

 

  

      

E C X C X 0

 

    

  

        

V E  

  

 

   

 

1 1

   

      

  

E X X X C u u X X X C

 

 

  

1 1 1

     

 

    

X X X X X X C X X X

2

   

1

 

  

 

X X X C C C

 

 

 

C X 0 X C

ma 

1

   

2 2

 

   

X X C C

 

ˆ ˆ

 

2 

     

Var C C Var



̂

Var

Pertanto la è la minima nella classe degli

stimatori lineari e corretti, e risulta provato il

10

teorema di Gauss-Markov

. 2 2

̂ 

STIMA DI

 

ˆ 

   

1

 

        

e y X X u X X X X X u

  1

 

     

X u X X X X X u

 

  1

 

  

I X X X X u M u M

X X

n n

M è simmetrica e idempotente, cioè:

X 

   

 

1 1

   

    

    

M I X X X X I X X X X M

X X

1.  

 

 

1 1

   

2    

  

M I X X X X I X X X X

X

2.    

1 1 1 1

       

       

   

I X X X X X X X X X X X X X X X X

1

 

 

  

I X X X X M X

Da queste proprietà di M si ottiene

X

   

  

Q e e u M M u u M u

X X X

   

 

 

E e e E tr e e perché scalare

   

   

 

 

E tr u M u E tr M u u tr(ABC)=

X X

 

  tr(BCA)=

  2

   

tr E M u u tr M

X X 11

tr(BAC)

 

1

 

2  

   

tr I X X X X

n

  

1

   

2  

   

tr I tr X X X X

n

  

1

    

2 2

 

      

n tr X X X X n tr I n

 

2

  

n k

Se definiamo 

e e

2

ˆ

   

n k

1

   

2 2 2

ˆ

     

E n k

 

n k

è uno stimatore corretto

(Greene p.200)

ESEMPIO

        

G P y P u

i 1 2 gi 3 i 4 qi i

i : 1960 … 1986 , n = 27

G = consumo di benzina in $

i

P = indice dei prezzi benzina

gi

Y = reddito pro-capite in $

i

P = indice dei prezzi auto nuove 12

qi x x x

Vettore y x

1 3 4

2

121.01034 1 6036.0000 1.0450000

0.9250000

130.20306 1 6113.0000 1.0450000

0.9140000

136.62968 1 6271.0000 1.0410000

0.9190000

134.39852 1 6378.0000 1.0350000

0.9180000

150.34150 1 6727.0000 1.0320000

0.9140000

171.88391 1 7027.0000 1.0090000

0.9490000

175.44395 1 7280.0000 0.9910000

0.9700000

172.03874 1 7513.0000 1.0000000

1.0000000

198.65222 1 7891.0000 1.0440000

1.0470000

208.37573 1 8134.0000 1.0760000

1.0560000

214.38531 1 8322.0000 1.1200000

1.0630000

228.52113 1 8562.0000 1.1100000

1.0760000

237.37202 1 9042.0000 1.1110000

1.1810000

234.34193 1 8867.0000 1.1750000

1.5990000

222.32567 1 8944.0000 1.2760000

1.7080000

228.16247 1 9175.0000 1.3570000

1.7790000

242.33362 1 9381.0000 1.4290000

1.8820000

248.32557 1 9735.0000 1.5380000

1.9630000

240.93266 1 9829.0000 1.6600000

2.6560000

229.58893 1 9722.0000 1.7930000

3.6910000

227.13648 1 9769.0000 1.9020000

4.1090000

210.44373 1 9725.0000 1.9760000

3.8940000

236.85998 1 9930.0000 2.0260000

3.7640000

255.36365 1 10421.000 2.0850000

3.7070000

243.75057 1 10563.000 2.1520000

3.7380000

277.31965 1 10780.000 2.2400000

2.9210000

Matrice X’X;

27.000000 51.357000 229865.00 37.296000

51.357000 133.15081 473127.10 83.319118

229865.00 473127.10 2.0120502e+09 331319.22

37.296000 83.319118 331319.22 56.280428

Matrice inv (X’X);

2.6605735 0.51586178 -0.00029970528 -0.76246362

0.51586178 0.30384762 -6.4047001e-07 -0.78790617

-0.00029970528 -6.4047001e-07 6.6199636e-08 -0.00019015563

-0.76246362 -0.78790617 -0.00019015563 2.8089108

Stime b=inv(X’X) * X’y;

-89.761482 13

-12.588147

0.039938109

-14.443884

Y n=10

121.01034

130.20306

136.62968

134.39852

150.34150

171.88391

175.44395

172.03874

198.65222

208.37573

X1 X2 X3 X4

1.0000000 0.92500000 6036.0000 1.0450000

1.0000000 0.91400000 6113.0000 1.0450000

1.0000000 0.91900000 6271.0000 1.0410000

1.0000000 0.91800000 6378.0000 1.0350000

1.0000000 0.91400000 6727.0000 1.0320000

1.0000000 0.94900000 7027.0000 1.0090000

1.0000000 0.97000000 7280.0000 0.9910000

1.0000000 1.00000000 7513.0000 1.0000000

1.0000000 1.04700000 7891.0000 1.0440000

1.0000000 1.05600000 8134.0000 1.0760000

(X’X)

10.000000 9.6120000 69370.000 10.318000

9.6120000 9.2665480 67031.717 9.9199470

69370.000 67031.717 4.8631105e+08 71575.421

10.318000 9.9199470 71575.421 10.651854

Inv (X’X)

197.12839 -30.407072 0.00072941000 -167.53347

-30.407072 489.93203 -0.034015993 -198.24254

0.00072941000 -0.034015993 2.558142e-06 0.013782628

-167.53347 -198.24254 0.013782628 254.38467

Beta =

inv(X’X)*X’y

-131.78025

-90.513381 14

0.045503884

61.076792 RICAPITOLANDO

ˆ  1

 

 

  X X X y



ˆ

 

E 

 

    

ˆ ˆ ˆ 

1

  2

     

   

V E X X

 

 

2

 e i

2

 

ˆ 

n k

 

2 2

 

ˆ

E

Fino ad ora nessuna ipotesi è stata posta per la

distribuzione degli errori nel problema della stima.

Aggiungiamo :  

2

 N 0 ,

u

i  

2

u 

 N 0 , I 15

TEST PER LA VERIFICA DI IPOTESI

Dal teorema di GAUSS-MARKOV :

 

ˆ 

1

 

2 

  

 N , X X

Vogliamo testare

 

 

H : 0

, H : 0

0 i 1 i

Ovvero vogliamo verificare se il regressore X è

i

effettivamente sulla variabile dipendente Y.

2

Nel caso (improbabile) che sia nota la

statistica test è:

ˆ

 

i i

 

1

 

2 

 X X ii

 

H : 0

0 i 16

Sotto si distribuisce come una

•Se il valore cade all’esterno dell’intervallo di

confidenza, per esempio al 95%, della N(0,1)

•rifiutiamo H ed il parametro sarà

0 i

“significativamente” diverso da zero;

altrimenti non rifiutiamo H e concludiamo che

0

il parametro non sarà “significativo”

i 

In generale per un sistema di ipotesi H : =c

0 i

 c

contro H : rifiuto, al livello 100 % di

ˆ

0 i   c

i

significatività, quando  z

   2

1

 

2 

 X X ii 17

 2

QUANDO NON E’ NOTA

2

̂

• Utilizziamo la sua stima

e e

  2

ˆ

 

1

 

a X X  

ii n k

ii

• In questo caso la statistica test è

ˆ

 

i i  t 

n k

ˆ a ii

 

dove 1

 

a X X

ii ii

è l’elemento generico di posto ii nella diagonale

della (X’X) 

Le ipotesi su possono essere verificate

i

sostituendo i valori nella statistica test e

controllando poi che la statistica superi o meno i

valori della regione critica della distribuzione t .

n-k

18

Quindi per verificare la significatività di i

procederò nel seguente modo:

  0

H : =0 contro H :

0 i 1 i

Statistica test:

ˆ ˆ

   

 

i i i i

 ˆ

 

ˆ a s

.

e

.( )

ii i

si distribuisce come una t(n-k).

Che sotto H 0 

Pertanto fissato se il valore della statistica

test cade all’esterno dell’intervallo di

confidenza    

ˆ ˆ ˆ ˆ

   

 

t s

.

e

. , t s

.

e

.

 

i i i i

2 2

Rifiuto H di non significatività del parametro,

0

altrimenti non rifiuto H e concludo che il

0

parametro non è significativo. 19

5. ADATTAMENTO DEL MODELLO

Come nel caso del modello di regressione

semplice, il coefficiente di determinazione

rappresenta la proporzione di variabilità totale

spiegata dal modello, ovvero una misura

dell’adattabilità del modello ai dati osservati.

La formula per esprimere il coefficiente è analoga

a quella dell regressione semplice, solo che in

questo caso per variabilità spiegata dal modello si

intende la variabilità spiegata dall’insieme dei

regressori 

ESS TSS RSS ESS

2    

R 1

TSS TSS TSS

20

TSS, total sum of squares: somma totale dei

quadrati degli scarti della variabile

dipendente rispetto alla media

RSS, residual sum of sqares:somma dei

quadrati residua o non spiegata dal modello

ESS, explained sum of squares: somma

dei quadrati spiegata dal modello

Alternativamente si può scrivere:

 

2

 

Ŷ Y

i

2 

R 2

 

 

Y Y

i 21

2

 

0 R 1

Il coefficiente di determinazione è un indicatore

del legame lineare tra Y e i regressori.

• Ha però un difetto:

• Esso può aumentare anche se viene aggiunto un

regressore anche se non “spiega” y.

2

 e

RSS i

2    

R 1 1 2

TSS Y

i

• Se dividiamo le devianze per i gradi di libertà

2

andiamo a pesare il contributo a R di ogni

regressore  

2

 

e n k

ˆ i

2  

R 1  

2

 

Y n 1

i

 

n 1  

ˆ 2 2

  

R 1 1 R

 

n k 22

TABELLA ANOVA

Causa Devianza G.L. Stime var.

var.  

Modello 

ESS k 1

ESS k-1

x …..x

2 k  

RSS n k

RSS

Residuo n-k  

TSS n 1

Totale n-1

TSS

Nota: direttamente dalla tabella ANOVA si può

costruire il coefficiente di determinazione.

23


PAGINE

160

PESO

696.21 KB

AUTORE

flaviael

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in economia e commercio
SSD:
Università: Firenze - Unifi
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher flaviael di informazioni apprese con la frequenza delle lezioni di Statistica economica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Firenze - Unifi o del prof Buzzigoli Lucia.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Statistica economica

Statistica economica - i modelli di regressione
Dispensa
Statistica economica - analisi delle serie storiche
Appunto
Statistica economica - serie storiche
Appunto
Statistica economica - Appunti
Appunto