Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

L’applicazione di una m.m. centrata di ordine 2m+1 permette di ottendere

valori perequati solo per i tempi t=m+1,…,n-m. In particolare si vanno a

‘perdere’ tutti i valori più recenti della serie. Come risolvere tale

problema?

1) utilizzare m.m. non centrate per i tempi più recenti;

2) estrapolare la serie osservata per ottenere previsioni dei valori

mancanti

Analisi dei residui:

L’analisi dei residui stimati (per differenza o rapporto delle componenti)

permette di verificare l’adeguatezza del modello scelto per stimare le

componenti deterministiche e giustificarne l’uso a fini previsivi. La

verifica ha esito positivo se è lecito assumere che i residui siano generati

da uno white noise. Altrimenti i risultati devono essere ridiscussi.

1. test sui punti di svolta:

Una serie di valori x presenta un punto di svolta superiore se x < x e

t t-1 t

x > x e un punto di svolta inferiore se x > x e x < x .

t t+1 t-1 t t t+1

Tale test verifica se la serie si comporta come “casuale” confrontando i

punti di svolta osservati con quelli medi E(P ), attesi se la serie x di

n n t

n osservazioni è perfettamente casuale.

2. test sul segno delle differenze:

Tale test confronta il numero di differenze x -x consecutive di

d̂ t t-1

n

segno positivo con quelle attese E(D ) attese sotto hp. Di completa

n

casualità.

3. test sulle autocorrelazioni: 

Si basano sui coefficienti delle autocorrelazioni .

n 22

Il lisciamento esponenziale

E’il metodo più utilizzato specialmente in ambito aziendale per le

previsioni nel breve periodo. Qualità: flessibilità e semplicità d’uso.

n

{ }

Data una serie supponiamo di volere prevedere y con k>1 è detto

y n+k

t t 1

 ˆ

y

orizzonte temporale. Si indica con la previsione fatta al tempo t.

t k

 y a e

Se la serie ha un trend costante alterato da fattori accidentali ,

 

t t

la previsione è data dalla perequazione di tutte le informazioni disponibili

fino a n con uguale peso: 1 1

n n

ˆ

y y y

 

å å

n 1 t n j 1

 - 

n n

t 1 j 1

 

Se invece la serie cambia in modo stocastico è più realistico calcolare la

previsione tramite una media ponderata dando peso maggiore alle

osservazioni più recenti:

n w y

å l n l 1

- 

l 1

ˆ

y con w 0; w w l=2,3,...,n

 ³ £

n 1 l l l 1

 -

n w

å l

l 1

Il lisciamento esponenziale è detto tale perché la serie y viene sostituita

t

ˆ

y

dalla successione ottenuta da:

t 1

ˆ

t c y c y c y ...

   

t 1 0 t 1 t 1 2 t 2

 - -

con pesi definiti dalla successione esponenziale

j

c c j 0,1,..., n 1 0 1

d d

  - < <

j 0

La previsione con costante di lisciamento è pari a:

d

n 1

- j

ˆ

y (1 ) y

d d

 - å

n 1 n j

 -

j 0

Dove la previsione è una media ponderata di tutte le osservazioni

disponibili; queste influenzano la previsione con intensità decrescente

all’aumentare della distanza dal tempo n. Più la costante è vicina ad 1 più

la previsione è rigida cioè più influenzata dalle osservazioni passate,

viceversa più è prossima a 0 più la previsione è flessibile cioè influenzata

dalle osservazioni più recenti.

La precedente si può anche scrivere:

ˆ ˆ

y y (1 ) y

d d

  - (1.)

n 1 n n

 23

Cioè come una media ponderata tra la previsione fatta al tempo n-1 e

l’ultima osservazione y , il cui peso è tanto più forte quanto più piccola è

n

la costante.

Riassumendo:

per il lisciamento esponenziale attribuisce sempre più peso ai

0

d ®

nuovi dati e l’effetto perequativo è quasi nullo, considerando dunque la

serie affidabile e la previsione non fa altro che restituire l’ultima

osservazione disponibile.

per il lisciamento esponenziale attribuisce peso pressoché nullo ai

1

d ®

nuovi dati e la nuova previsione tende a coincidere con la precedente.

La costante esprime la vischiosità del sistema (importanza vecchia

previsione).

Per stimare la funzione (1.) è necessario avere un valore iniziale di e di

d

ŷ .

1 viene posto tra 0,05 e 0,3 oppure stimato mediante algoritmi non lineari.

d

Ad esempio con i minimi quadrati si cerca quel valore che minimizza:

n 1

- 2

ˆ

( y y )

-

å t 1 t 1

 

t m

 ŷ

Per quanto riguarda usualmente:

1

ˆ d

y y se è molto piccolo

1 1

ˆ

y ( y y ) / 2

 

1 1 2

1 n

ˆ d

y y se è più vicino ad 1

 å

1 t

n t 1

Se n è grande e/o la costante di lisciamento è piccola, la scelta di tale

valore è ininfluente.

La previsione può essere vista come la costante che meglio si adatta alla

serie in prossimità di n. Questo fa capire che se la serie ha un trend non

costante o fluttuazioni marcate, tale metodo non è appropriato.

I metodi di Holt-Winters

Generalizzazione del precedente.

- Metodo non stagionale

Hp. che in prossimità di n un aggiustamento mediante una retta di

L T ( t n )

 -

equazione sia preferibile alla perequazione fornita da una

n n

costante. Le stime delle formule di aggiornamento sono: 24

ˆ ˆ ˆ

L ( L T ) (1 ) y 0< <1

a a a

   -

n n 1 n 1 n

- -

ˆ ˆ ˆ ˆ

T T (1 )( L L ) 0< <1

b b b

  - -

n n 1 n n 1

- -

Tale metodo è più flessibile del precedente in quanto fa uso di due

costanti.

- Metodo stagionale additivo

Nelle vicinanze di n la serie storica è esprimibile come

L T ( t n ) S

 - 

n n n

Dove S è un fattore stagionale di periodo s.

- Metodo stagionale moltiplicativo

Nelle vicinanze di n la serie storica è esprimibile come

L T ( t n )

S

 -

n n n

Valutazione qualità previsioni

a) date due o più serie di previsioni, quale ha fornito risultati migliori?

b) In che misura una serie di previsioni può considerarsi

“soddisfacente”?

Previsione punti di svolta

In genere si misura la distanza tra la previsione e successiva

realizzazione. Si pone particolare importanza sui punti di svolta (previsti e

realizzatisi).

Indicati con p valore previsto al tempo t e r valore realizzato, si

t t

costruiscono due vettore di tali valori per tutti gli anni considerati. Con tali

valori è possibile costruire la seguente tabella.

Si ha: Valori Valori realizzati r

t

previsti p p.s. No p.s. Tot

t

p.s. n n n

11 12 1.

No p.s. n n n

21 22 2.

Tot n n n

.1 .2

Sulla diagonale principale si hanno le previsioni che si sono rivelate esatte.

n rappresenta la frequenza degli errori di prima specie (ps previsto e non

12

realizzato), n la frequenza degli errori di seconda specie (ps non previsto

21

e realizzato).

Si definisce indice relativo degli errori di prima specie: 25

n

12

E 

1 n

1.

E indice relativo degli errori di seconda specie:

n 21

E 

2 n

.1

Errore medio di previsione

Indichiamo con e =p -r t=1,…,n l’errore di previsione.

t t t

Media potenziata di ordine s degli errori di previsione:

1

1 n

æ ö s

s

I e

 å

ç ÷

s t

n

è ø

t 1

Per s=1 si ha l’errore assoluto medio di previsione:

1 n

EAM e

 å t

n t 1

Spesso affiancato dall’errore medio di previsione:

1 n

EM e

 å t

n t 1

Se i due indici sono molto vicini, c’è sistematicità negli errori.

Un altro indice è la media quadratica degli errori di previsione, ottenuta

ponendo s=2: 1 n 2

MQE e

 å t

n t 1

Il quadrato di tale quantità è scomponibile in tre addendi che

rappresentano quanta parte dell’errore è dovuta a:

- diversa media dei valori previsti e realizzati

- diversa variabilità dei valori previsti e realizzati

- imperfetta correlazione lineare dei valori previsti e realizzati

Nello specifico:

2

( p r )

-

ES errore sistematico

 2

MQE 2

s s

( )

-

p r

EV errore nelle variabilità

 2

MQE

s s 

2 (1 )

-

p r pr

EC errore nelle covarianza

 2

MQE 26

Per confrontare previsioni relative a più serie storiche si utilizza l’indice di

Theil: MQE

U  1 n 2

r

å t

n t 1

Ovvero: n 2

å -

( p r )

t t

t 1

U n 2

å r

t

t 1

Infine per analizzare l’attendibilità delle previsioni in due archi di tempo

successivi si utilizza il coefficiente di Giano.

Supponiamo che l’intero periodo di n tempi sia suddiviso in due

sottoperiodi di lunghezza pari a rispettivamente n e n con n + n =1.

1 2 1 2

n

1 2

å e t

n  

t n 1

2 1

J n

1 1 2

å e t

n 

t 1

2

Assume valore nullo quando a previsioni non tutte esatte nel primo

sottoperiodo corrispondono previsioni perfette nel secondo; viceversa

tende ad infinito. 27

MODELLI DI SERIE STORICHE

Approccio Classico

Modelli di composizione:

- componenti trend ciclo stagionalità

comp.accidentale

- tipi di composizione :

1) additività

2) moltiplicatività

3) misto

1) ipotesi di indipendenza tra le componenti

modello additivo

   

Z T C S a

t t t t t

2) non indipendenza tra le componenti

modello moltiplicativo

   

Z T C S a

t t t t t 1

Il caso 2) si riduce al caso 1) considerando i

log , cioè :

   

log Z log T log C log S log a

t t t t t

3) modello:

   

Z T S C a

t t t t t

pregi difetti

-semplicità -pluralità di soluzioni

-serie anche corte -assunzione

modellistica

prima approssimaz. troppo rigida

-visione settorizzata

2

Modelli stocastici o di Box-Jenkins

(approccio moderno post 1925)

1. Modello autoregressivo (AR)

2. Modello a media mobile (MA)

3. Modello misto (ARMA)

       

Z Z Z ... Z a

1.   

t 1 t 1 2 t 2 p t p t

a residuo o disturbo

t

  

( i 1 , ... , p ) coefficienti

i

AR(p) - modello autoregressivo di ordine p

2. Media mobile :

è una media aritmetica che si sposta, ad

ogni iterazione, dall’inizio alla fine

della successione di dati. 3

Esempio: MA a tre termini

z 1  

z z z

1 2 3

z ẑ

2 2 3

 

z z z

2 3 4

z ẑ

3 3 3

z 4  

z z z

3 4 5

z ẑ

5 4 3

.

.

.

z 

n 2  

z z z

 

n 2 n 1 n

z ẑ

 

n 1 n 1 3

z n In generale termini

 

z z z

 

t 1 t t 1

ẑ t 3 dispari . MA centrata.

Può essere: - semplice - ponderata

4

Modelli a MA:

     

Z a a ... a

 

t t 1 t 1 q t q

costanti

 

( i 1 , ... , q )

i

Modello MA(q) di ordine q

3. Modelli misti

          

Z Z ... Z a a ... a

   

t 1 t 1 p t p t 1 t 1 q t q

Modello ARMA (pq)

I modelli Box-Jenkins essendo di tipo

stocastico stocastico generano un

processo stocastico

Analizzare una serie empirica con i modelli

Box-Jenkins significa scegliere, tra i

molti modelli possibili, quello più

adatto e stimarne i parametri

2 fasi di analisi:

_ identificazione 5

_ stima

Operatori, funzioni generatrici,

equazioni alle differenze finite

Operatore all’indietro (backward) B

Data una sequenza

z , z , z , z , z

   

t 2 t 1 t t 1 t 2

l’operatore B serve a trasformare un termine

di tale sequenza in uno che lo precede di uno

o più posti. Quindi : j

 

B z z B z z

oppure

 

t t 1 t t j

Operatore in avanti (forward) F

Stessa definizione, salvo che F trasforma in

avanti, cioè j

 

F z z F z z

oppure

 

t t 1 t t j

 1

F B

Ovviamente : 6

Operatore alle differenze finite .

  

z z z 

t t t 1 oppure

 

j j 1

     

z z z z 

t t t t j

Ma:  

      

z z z z B z 1 B z

t t t 1 t t t

cioè :   

1 B

Poi:  

2

      

z z z 2 z z

 

t t t t 1 t 2

7

PROCESSO AUTOREGRESSIVO DI

ORDINE p AR(p) disturbo

       

z z z ... z a (*)

  

t 1 t 1 2 t 2 p t p t

z

Somma ponderata di valori passati cui si

t

aggiunge un disturbo calcolato sul valore

a

attuale . Riscrivendo la (*) si ha:

t

       

z z z ... z a

  

t 1 t 1 2 t 2 p t p t

che diviene, con l’operatore B:

 

2 p

       

1 B B ... B z a

1 2 p t t

Ponendo la quantità in parentesi uguale a ,

 

 B

nota anche come operatore AR(p) , si ha:

 

 

B z a

t t 8 

Nella (*) può essere aggiunta una costante

che misura il livello del processo che, se il

processo è stazionario, è uguale alla sua

media, quindi in generale AR(p) ha forma:

       

z z ... z a

 

t 1 t 1 p t p t

Le condizioni di stazionarietà del processo si

 

 

ottengono dalle radici della sua equazione

B 0

caratteristica, cioè ponendo , quindi

2 p

       

1 B B ... B 0

1 2 p

Si dimostra (Box & Jenkins) che la

stazionarietà di AR(p) si ottiene quando le

radici della equazione caratteristica sono in

modulo > 1, o in altre parole sono esterne al

1

cerchio di raggio

unitario 9

Media.

  

z a 0

Se , nel caso del modello completo:

t      

z z

 

 

1 t 1 2 t 2

 

   

E z E

t  

  

... z a

 

p t p t

   

      

E z E z

 

1 t 1 2 t 2

   

  

... E z E a

p t p t

       

  

E z E z E z .... e E a 0

Siccome  

t t 1 t 2 t

 

          

E z 1 ...

t 1 2 p

Quindi   

E z t      

1 ...

1 2 p   0

Ovviamente nel modello ridotto in cui

  

E z 0

t 10

Autocovarianza

   

    

E z z E z z

  

k t t k 1 t 1 t k

 

   

    

E z z ... E z z E a z

    

2 t 2 t k p t p t k t t k

  

E z a 0

Ma per k > 0 , quindi:

t k k

         

... k = 1,2,..p

  

k 1 k 1 2 k 2 p k p

Varianza:

analogamente si dimostra che

  2

            

var z ...

0 1 1 2 2 p p a

Le di AR(p) sono in numero infinito; per

k

i valori di j > p si può ricorrere alla forma:

         

...

  

j 1 j 1 2 j 2 p j p

11

Che è nota come equazione di Yule-Walker

Tale relazione consente di :

1. conosciuto un certo AR(p), cioè una volta

noti i , si possono calcolare le autocov.

i

teoriche corrispondenti;

2. se non si conoscono i si possono

i

stimare sostituendo ai valori teorici delle

autocov. i corrispondenti valori

k

campionari c ottenuti dalla serie storica

i

osservata.

Autocorrelazione

 

Dividendo si ha:

k 0

          

...

  

k 1 k 1 2 k 2 p k p

k = 1,2,3,…

  1

In cui partendo da si ottengono in

0

forma ricorsiva tutti i coefficienti di

12

autocorrelazione teorica.

Ovviamente vale quanto detto in 1. e 2.

Correlogramma

Dalla si vede come il corr. di AR(p) è

k

costituito da infiniti termini.

Si dimostra che tali termini, a seconda dei

valori dei parametri, tendono a zero

monotonicamente oppure con oscillazioni.

Casi particolari.

AR(1)

  

z z a

t 1 t 1 t

Il valore della serie al tempo t è pari ad una

frazione del valore precedente aumentato

a

(algebricamente) dell’errore .

t 13

  0

,

5

Es: supponiamo .

1

Allora graficamente:

z

z 1  

t z 0

,

5 z a

2 1 2

a 2

0

,

5 z 1 0

,

5 z  

z 0

,

5 z a

2 3 2 3

 a 3 t

3

1 2  

 

a v .

c

. , E a 0

t t

innovazione

Stazionarietà

Dal caso generale, siccome le radici

dell’equazione caratteristica, cioè

   

    

B 1 B 0

1

sono esterne al cerchio unitario, allora : AR(1)

  1

è stazionario se e solo se 14

1

Media

   

Se allora

 

E a 0 E z 0

t t

Varianza  

Dalle relazioni di e di AR(p) si ricava

k 0

2

 a

 

0 2

 

1   0

da cui risulta che, siccome allora

0

2

   

1 1

, cioè , come rilevato per

la condizione di stazionarietà.

Autocovarianza

Si dimostra (Nelson, Piccolo) che

2

 k

a

  

k 2

 

1 15

che utilizzando la relazione per diviene:

0

k

   

k 0 k

  

Autocorrelazione k

Correlogramma 

A seconda del segno di si ha:

1   0

  0

1

0  1

Autocorrelazione parziale

Si dimostra (Kendall) che

   

k 1

 1 1

  

k k 

0 k 1

 16

Non stazionarietà   1

La stazionarietà si ha per 1

 

z z a

  1

Se allora Random

t t 1 t

1 Walk

(non stazion. omogenea (*))

  1

Se allora il processo assume un

1

andamento esplosivo tipo reazione nucleare.

(*) considerando successivi intervalli

temporali questi hanno dei componenti

sostanzialmente uguali. 17

Random walk

stazionarietà

non omogenea

 

z z a

t t 1 t

Stazionario

 

z 0

,

35 z a

t t 1 t

Esplosivo

 

z 1

, 2 z a

t t 1 t

18 Simula-

t a z t a z

t t t t

0 -1 0,5 30 -1,2 -0,95 zione

1 -1,6 -1,4 31 0,3 -0,08

-0,4 -0,96 0,6 0,57 AR(1)

1,3 0,92 1,5 1,73

-0,4 -0,03 -0,9 -0,21

0,7 0,68 -0,3 -0,38

1,2 1,47 -0,4 -0,55

0,4 0,99 -1,2 -1,42

0,9 1,29 1,0 0,43

-0,1 0,42 -1,3 -1,13

10 -0,3 -0,13 40 0,4 -0,05

-0,1 -0,15 0,0 -0,02

0,2 0,14 0,5 0,49

-0,6 -0,54 2,1 2,29

-0,4 -0,62 -0,5 0,41

-0,4 -0,64 2,1 2,26

-0,9 -1,16 0,4 1,30

0,0 -0,46 0,8 1,32

0,3 0,11 0,6 1,13

-1,6 -1,55 0,1 0,55

20 -0,4 -1,02 50 0,4 0,62

-0,8 -1,21 0,5 0,75

-0,1 -0,58 -0,4 0,1

0,0 -0,23 3,3 3,26

1,2 1,11 0,4 1,7

-0,1 0,34 -0,1 0,58

0,4 0,54 1,4 1,63

-0,8 -0,58 1,1 1,75

-0,2 -0,43 -3,7 -3,0

0,8 0,63 -1,1 -2,3

60 -0,1 -1,02

4

3

2

1

Zt 0

-1 1 11 21 31 41 51 61

-2

-3 t 19

   

E z 0 ; z 0

,

17

 r

k t

k k molto vicini

1 0,4 0,486

2 0,16 0,341 non vicini

3 0,064 0,281

4 0,0256 0,029

5 0,01024 -0,011

6 0,0041 -0,149 oscilla

7 0,00164 -0,002

8 0,0007 0,054

9 0,0003 0,095

10 0,0001 0,066

0,6 0,6

0,5 0,5

0,4 0,4

0,3 0,3

0,2 0,2

0,1 0,1

0

0

-0,1 -0,1 1 2 3 4 5 6 7 8 9 10

1 2 3 4 5 6 7 8 9 10 -0,2

-0,2 r

 k

k 20

Processo autoregressivo di 2° ordine

    

z z z a

 

t 1 t 1 2 t 2 t  

2

    

, , a N 0 , su t

parametri

1 2 t a

Stazionarietà

Le radici dell’equazione caratteristica

devono essere esterne al cerchio unitario.

Equazione caratteristica

  2

      

B 1 B B 0

1 2

Si dimostra che per soddisfare tale

condizione si devono verificare, come

vedremo poco sotto (correlogramma) le

seguenti disuguaglianze

    1

 2 1

     1

 2 1

    

1 1

2 21

Le disuguaglianze individuano nel piano

 

, la seguente regione triangolare:

1 2 1 0

-1

 2

-2 0 2

 1

Media 

Modello completo (con costante )

       

      

E z E z E z E a

 

t 1 t 1 2 t 2 t

     

     

E z E z E z

 

t 1 t 1 2 t 2

    

1 1 2

Si può facilmente dimostrare che

 

 

z z E z , cioè gli scarti dalla media,

*t t t       

z z 1

*

siccome: t t 1 2

Sono anch’essi AR(2), senza costante

22

Varianza

Piccolo (1970) ha dimostrato che

varianza

2

        

0 1 1 2 2 a

       autocov.

1 1 0 2 1 lag 1,2

      

2 1 1 2 0 

e che…… k > 2 , è ottenibile dalla usuale

k

relazione di Yule-Walker

       autocov. gen.

 

k 1 k 1 2 k 2

Quindi:

     

1 1 1 2 autocorr.

     

2 1 1 2

      

 

j 1 j 1 2 j 2 23

Correlogramma

Essendo l’eq. cartesiana di 2° grado, infatti:

2

    

1 B B 0

1 2

Il correlogramma può assumere forme più

numerose di AR(1), perché le radici possono

essere:

• reali e disuguali

• reali e coincidenti

• complesse e coniugate.

La forma del correlogramma dipende dai

valori assunti dalle soluzioni dell’equazione

Caratteristica. Box & Jenkins hanno

dimostrato che in caso di radici reali si ha:

andamenti

smorzati

24

In caso di radici complesse: andamenti

sinusoidali

smorzati

Autocorrelazione parziale

Box & Jenkins dimostrano che:

2

  

2 1

      

, , 0

1

1 1 2 2 k k

2

 

1 1

Questi due soli valori hanno andamenti

diversi a seconda che le radici siano reali o

complesse 25

t a z t a z

t t t t

0 -1 0,5 30 -1,2 -0,861

1 -1,6 0,5 31 0,3 0,776

-0,4 -0,6 0,6 -0,038

1,3 1,76 1,5 1,678

-0,4 -1,576 -0,9 -1,915

0,7 1,998 -0,3 1,185

1,2 -0,314 -0,4 -1,494

0,4 0,988 -1,2 -0,067

0,9 0,244 1,0 1,339

-0,1 -0,048 -1,3 -2,116

10 -0,3 0,039 40 0,4 1,938

-0,1 -0,133 0,0 -1,586

0,2 0,288 0,5 1,84

-0,6 -0,799 2,1 -1,329

-0,4 0,137 -0,5 0,661

-0,4 -0,642 2,1 1,439

-0,9 -0,488 0,4 -0,331

0,0 0,164 0,8 1,285

0,3 0,495 0,6 -0,237

-1,6 0,104 0,1 0,499

20 -0,4 -0,363 50 0,4 0,054

-0,8 -0,561 0,5 0,568

-0,1 0,164 -0,4 -0,73

0,0 -0,211 3,3 3,852

1,2 1,359 0,4 -2,057

-0,1 -0,957 -0,1 1,904

0,4 1,246 1,4 -0,154

-0,8 -1,738 1,1 1,574

-0,2 1,092 -3,7 -4,675

0,8 -0,203 -1,1 2,02

60 -0,1 -2,247

4

3

2

Zt 1

0 1 10 19 28 37 46 55

-1

-2 t 26

Simulazione di un AR(2)

   

z 0

,

6 z 0

, 2 z a

 

t t 1 t 2 t

 

z z 0

,

5

partenza 0 1

Condizioni di stazionarietà:

     

0

, 4 1 si

1 2

    

0

,

8 1 si

2 1

  

1 0

, 2 1 si

z è quindi stazionario.

t

Utilizzando scarti normali standardizzati si

ottengono i valori tabulati con il relativo

andamento grafico.   

, ,

Poi, utilizzando le relazioni viste per 1 2 k

r

Si calcoli la funzione di autocorrelazione e

k

dai valori simulati la 27

campionaria.

 

r r

k k

k k k k

1 -0,75 -0,68 6 0,32 0,01

2 0,65 0,52 7 -0,27 0,10

3 -0,56 -0,24 8 0,22 -0,17

4 0,45 0,22 9 0,19 0,18

5 -0,38 -0,15 10 0,16 -0,15

Correlogrammi

 r

k k

Autocorrelazione parziale

    

0

,

75 ; 0

, 2

1

1 2 2

  

r 0

,

674 ; r 0

,

095

1

1 2 2 28

PROCESSO A MEDIA MOBILE MA(q)

Il processo MA(q) è solamente costituito da

un numero finito di q termini, cioè:

     

z a a ... a

 

t t 1 t 1 q t q

Introducendo l’operatore B si ha:

 

2 q

       

z 1 B B ... B a

t 1 2 q t

che diviene:  

 

z B a

t t

Dove   2 q

        

B 1 B B ... B

1 2 q

Denota il cosiddetto operatore MA(q).

29

Stazionarietà

Siccome l’operatore MA(q) è una serie finita,

non esistono particolari restrizioni per

assicurare la stazionarietà

Invertibilità (vedi dopo per maggior dettaglio)

Un MA(q) è invertibile quando le radici

dell’equazione caratteristica

  2 q

         

B 1 B B ... B 0

1 2 q

sono esterne al cerchio unitario.

Media a

Se le hanno media nulla, è nulla pure la

t

media del processo, quindi:

  

E z 0

t 30

Autocovarianza, varianza e autocorrelazione

Tenendo conto delle relazioni già viste per il

processo lineare si ha:

  2

             

...

  

k 1 k 1 2 k 2 q q k a

 

k  

0 per k q

con k = 1,2,…,q.

Da cui la varianza:

 

2 2 2 2

         

1 ...

0 1 2 q a

e quindi la autocorrelazione:

        

...

 

k 1 k q q k 

; k 1

, 2

,..., q

 2 2

      

1 ...

k 1 q

 

0 per k q

 

 

i 1

, 2

, ... k

Se i valori sono noti, oppure

i 

stimati, si possono ricavare i parametri .

i

Ovviamente essendo non lineare la relazione

funzionale, occorre utilizzare metodi iterativi.

31

  

, ,

Si noti che siccome sono

k 0 k

indipendenti da t , MA(q), come prima

visto, è sempre stazionario.

Invertibilità di AR(p) e invertibilità di

MA(q)

Condizione di invertibilità

Tale condizione è molto importante

soprattutto a proposito dei modelli MA(q),

dal momento che questi ultimi, a differenza

degli AR(p), sono caratterizzati dal problema

della molteplicità dei modelli.

Invertibilità per AR(p)

 

2 p

       

1 B B ... B z a

1 2 p t t

Invertendo si ha: 1

z a

t t

2 p

      

1 B B ... B

32

1 2 p

Sviluppando in serie il rapporto evidenziato

2 2

in rosso si ha:     

1 B B ...

per cui:  

2 2

     

z 1 B B ... a

t t

che altro non è (come vedremo fra poco) se

non un .

MA ( )

Quindi: un AR(p) è sempre trasformabile in

un .

MA ( )

Invertibilità di MA(q)

z t  a t

 

 B

Sviluppando in serie

1 2

     

1 B B ...

1 2

 

 B

 

2

     

1 B B ... z a

Quindi: 1 2 t t

AR ( )

che è un 33

Il processo MA(q) si dice allora invertibile se

i pesi formano una serie convergente e

i  

 B

questo si ottiene se e solo se le radici di

sono esterne al cerchio unitario.

La condizione di invertibilità, pertanto, ha

per i processi MA(q) la stessa importanza che

ha la condizione di stazionarietà per i

processi AR(p).

Processo MA(1)

  

z a a 

t t t 1

Stazionarietà sempre

   

 

E a 0 E z 0

Media: se anche:

t t

 

2 2

    

1

Varianza 0 a 2

       

; 0 , k 1

Autocovarianza 34

1 a k

Autocorrelazione

 

1

      

; 0 , k 1

1 k

2

  

1

0

Correlogramma

1 1

 

k k

k k

-1 -1

Una sola ordinata positiva o negativa, a

seconda del segno di . 35

Invertibilità

Si considerino due MA(1), uno con

parametro e un altro con , cioè:

1 1

    

z a a e z a a

 

t t t 1 t t t 1

Calcoliamo . Si ha:

k

     

1

   

    

z ; z

1 1

2 2 2

     

1 1 1 1

Quindi i due processi, pur diversi, hanno la

stessa , quindi esiste un problema di

k

molteplicità di modelli.

Per risolverlo si consideri:

2

     

a z z z ...

 

t t t 1 t 2

1 1

   

   

a z z z ...

 

t t t 1 t 2

2

  36

Ricorrendo all’operatore B si ha:

 

2 2

     

a 1 B B ... z

t t

 

1 1

 

2

 

   

a 1 B B ... z

 

t t

2

 

 

  1

Se la prima serie converge, mentre

la seconda no.

  1

Allora se si dice che la prima serie è

invertibile, mentre la seconda non lo è.

  1

Quindi la condizione assicura

l’esistenza di un unico modello MA(1).

Tale condizione equivale a dire che le radici

  

1 B 0

della equazione caratteristica:

siano esterne al cerchio unitario. 37

Autocorrelazione parziale

Box & Jenkins dimostrano che

 

k 2

   

1

  

, k 1

, 2

,

3

 

k k 

2 k 1

 

1

Da cui si vede come i coefficienti di

autocorrelazione parziale hanno un

andamento smorzato, anche con oscillazioni

di segno.

Processo MA(2)

    

z a a a

 

t t 1 t 1 2 t 2

Stazionarietà sempre stazionario

Invertibilità

Il processo è invertibile se le radici

2

    

1 B B 0

dell’equazione caratteristica 1 2

38

sono in valore assoluto maggiori di uno.

Si dimostra che tale condizione si verifica se:

    1

 2 1

     1

 2 1

    

1 1

2

che individuano il seguente triangolo isoscele

0

 2

-2 -1 2

1

Media

   

 

E a 0 E z 0

Se anche

t t 39

Varianza, autocovarianza, autocorrelazione

    

 

2 2 2 1 1 2

        

1

0 1 2 a 1 2 2

   

1 1 2

 

  2 2

         

1 1 1 2 a 2 2 2

   

1 1 2

2

    

2 2 a

   

0 0

k k

Radici reali

   

0 0 correlo-

1 1 gramma

Radici complesse

   

0 0

1 1 40

Autocorrelazione parziale espressione

formale in Anderson

Radici reali:

Radici complesse: 41

Principio di dualità tra AR(p) e MA(q)

Stazionarietà invertibilità

1) Le radici dell’eq.

 

 

B 0

MA incondizionata devono essere esterne

al cerchio unitario

Le radici dell’eq.

 

 

B 0

AR incondizionata

devono essere esterne

al cerchio unitario

2) Un AR(p) può essere sempre espresso come

MA ( )

una media mobile di infiniti termini, cioè

Un MA(q) può essere espresso, se invertibile,

AR ( )

come un processo autoregressivo infinito, cioè

.  k

3) I coefficienti di autocorrelazione totale

di un MA(r ) si comportano analogamente ai

k k

42

coeff. di autocorrelazione parziale di un

AR(r ). 

I coefficienti di un MA(r) si comportano

k k 

in modo analogo ai coefficienti di un

k

AR(r)

Esempi:

 

k AR(1) MA(1)

k

 

k k k k

 

k k

AR(2) MA(2)

 

k k k k 43

Processo ARMA(pq)

      

AR ( p ) z z ... z a (*)

 

t 1 t 1 p t p t

residuo o “innovazione”

 

2

 

N 0 , , indipend.

a

Se non segue tali ipotesi, ma invece si

t

comporta come una media mobile di ordine

q e quindi risulta:

    

a a ... a

 

t 1 t 1 q t q

Sostituendo in (*) si ha: ( )

     

z z ... z

 

t 1 t 1 p t p

     

a a ... a

 

t 1 t 1 q t q

che è un processo misto autoregressivo di

ordine p, con media mobile di ordine q, cioè

un ARMA(pq). 44

Usando l’operatore B si ottiene:

   

  

B z B a

t t

dove

  2 p

        

B 1 B B ... B

1 2 p

  2 q

        

B 1 B B ... B

1 2 q

Stazionarietà

Per la condizione di stazionarietà della

componente AR(p), le radici dell’equazione

  p

       

B 1 B ... B 0

1 p

devono essere esterne al cerchio unitario.

Invertibilità

Analogamente, per MA(q) le radici di

  q

       

B 1 B ... B 0

1 q

devono anch’esse essere esterne al cerchio

unitario. 45

Media

Se ARMA(pq) è completo, cioè è presente

anche una costante :  

   

       

E z E z ... E z

 

t 1 t 1 p t p

 

   

     

E a E a ... E a

 

t 1 t 1 q t q

da cui: 

  

E z t     

1 ...

1 p

 

  

0 , E z 0

Per cui se t

Autocovarianza   z

 k

Si indichi con la covarianza tra e

t

z a

a , quindi:

t   

  

   

k E z z a a

z a t k t 46

z

Moltiplicando ( ) per e considerando la

t k

media, si ha:    

             

... k k 1

 

k 1 k 1 p k p z a 1 z a ( )

 

    

k q , k q

q z a

z a

Siccome dipende dai valori generati

t k j

fino a j = t-k , segue che:

   

E a z 0 , j 0

t t j

   

E a z 0 , j 0

t t j   0

Quindi se k>q le e allora la

a z

relazione ( ) si riduce a:

          

...

  

k 1 k 1 2 k 2 p k p

47

Varianza per k=0  

2

             

... 1 ...

0 1 1 p p a 1 z a

 

    q

q z a

Autocorrelazione

          

...

  

k 1 k 1 2 k 2 p k p

Autocorrelazione parziale

Se ARMA(pq) è invertibile,

 

 B

a z

t t

 

 B  

1 B

Siccome la serie è infinita, anche

l’autocorrelazione parziale è infinita, con

un andamento simile all’autocorrelazione

parziale di un MA(q). 48

Modelli Box & Jenkins per serie non

stazionarie in media (modelli ARIMA)

Quando le condizioni di stazionarietà

richieste per i modelli BJ non sono presenti si

possono avere due forme di non stazionarietà:

quella esplosiva

quella omogenea

Si ha la prima quando almeno una radice

dell’equazione caratteristica è in modulo < 1.

Si ha la seconda quando almeno una delle

radici dell’equazione caratteristica è unitaria

(cioè sul cerchio di raggio unitario).

I fenomeni socio-economici ben difficilmente

presentano non stazionarietà esplosiva,

limitandosi a forme omogenee, così dette

perché a parte variazioni nel livello e/o

nell’andamento di fondo (trend), la serie è di

tipo stazionario. 49

In altri termini la serie non è

temporaneamente costante nel suo livello

medio, ma comunque tende a disporsi

stabilmente intorno a tale livello medio.

Trasformazioni stazionarizzanti.

Una serie storica in cui è presente una non

stazionarietà omogenea è facilmente

trasformabile in una di tipo stazionario

prendendo un adeguato numero di

differenze successive.

Esempio:

z non stazion.

t omogenea

 

z t stazion.

z z 

t t 1 50

Un possibile modo di rappresentare una serie

storica non stazion. omogenea è introdurre in

un modello ARMA(pq) un operatore alle

differenze finite di ordine opportuno.

Integrando le componenti AR(p) e MA(q)

con la componente I(d) si ha il modello

ARIMA(p,d,q).

Per definire formalmente tale modello si

deve prima definire l’operatore

autoregressivo generalizzato

  

2 p d

       

B 1 B B ... B

1 2 p d

che è un polinomiale di grado p+d con d

radici uguali ad 1 e le altre p radici maggiori

di 1.

Pertanto:    

    

2 p d

    

B 1 r B 1 r B , ... , 1 r B

1 2 p d

   

    d

2 p

    

1 r B 1 r B , ... , 1 r B 1 B

51

1 2 p

Questo perché d radici sono unitarie.

I fattori della parte destra dell’equazione

meno l’ultimo sono niente altro che

 

l’operatore di un AR(p) stazionario.

 B

Quindi: d

    

   

B B 1 B

Cioè:     

d

   

B z B 1 B z

t t

  d

  

B z t *

 

  B a t

che scritto per esteso diviene:

     

z z ... z

   

t t 1 p d t p d

     

a a ... a

 

t t 1 q t q 52

d

 

w z

Pertanto se t t

La * diviene:

   

  

B w B a

t t

che altro non è se non un ARMA sulle

z

differenze di ordine d dei valori .

t

d

 z w

Quindi sostituendo con il

t t

processo ARIMA(p,d,q) sulla variabile si

z t

w

riduce ad un ARMA(pq) sulla variabile .

t

 

Allora il processo non stazionario è

B

esprimibile come combinazione del processo

 

 B

stazionario e dell’operatore alle

d

 

differenze .

d

  

1 B

Tale combinazione determina il processo

integrato ARIMA(p,d,q) che pertanto è parte

di una classe di processi più ampia di quelli

ARMA che da essa discendono. 53

La terminologia “integrato” deriva poi dalla

seguente notazione:

siccome abbiamo definito

 

w z z 

t t t 1

ed evidentemente

   

    

z z z z z ...

  

t t t 1 t 1 t 2

Allora:    

z w w w ...

 

t t t 1 t 2

z

cioè la serie risulta essere la somma di

t

tutte “le variazioni“ del fenomeno fino al

tempo t compreso.

Ciò determina, in analogia con le funzioni

continue, una sorta di integrazione sulla

w

variabile .

t

Il processo ARIMA(p,d,q) è poi

caratterizzato dall’essere di tipo

“omogeneo”, indipendente cioè dal livello

z 54

assunto da .

t

Si aggiunga infatti nel modello che esprime

z una costante arbitraria a tutti i termini

t

fino a quello di ordine t-1 ; in altri termini:

  

   

       

z z c z c z c ...

  

t t 1 1 t 1 t 2

  

 

      

z c z c a

 

p t p t 2 t

    

a ... a

 

1 t 1 q t q

che è come dire:

z t  

 

       

z z z ... z z

 

 

     

t 1 1 t 1 t 2 p t p t p 1

  c

 

    

a a ... a

 

 

t 1 t 1 q t q

Cioè con l’aumento di tutti i termini della

costante c, anche risulta aumentato di c.

z t

Quindi una serie non stazionaria ma

omogenea si comporta come una serie

stazionaria, poiché il suo andamento è

55

indipendente dal livello della serie.

Casi particolari di ARIMA(p,d,q)

Assegnando valori particolari ai parametri si

determinano casi di notevole interesse

applicativo.

caso completo ARIMA(1,1,1)

Modello:

   

     

1 B z 1 B a

1 t 1 t

riscrivibile come

   

    

1 B w 1 B a

1 t 1 t

Il grafico che segue è relativo ad una

  0

,

8

configurazione simulata con e

1

  0

, 4

1 ; la riproduzione di configurazioni

empiriche di carattere socio-economico è

abbastanza evidente. 56

z t t

Caso incompleto ARIMA(1,1,0) ARI

Modello  

   

1 B z a

1 t t

Una rappresentazione simulata, con   0

,

3

mostra anch’essa l’aderenza a possibili

57

configurazioni empiriche.

caso incompleto ARIMA(0,1,1) IMA

 

   

z 1 B a

Modello t 1 t

  0

,

6

1

caso incompleto con costante

Se in un ARIMA(p,d,q) le differenze prime:

 

w z z sono stazionarie, la presenza

t t t 1

di una costante in AR provoca una media

diversa da 0 data da: 

  

E w t       

1 ...

1 2 p 58

 0

Se ciò significa che la media delle

differenze prime tende a crescere o a

decrescere.

Quindi la costante introduce un trend

crescente o decrescente   0

,

5

Modello ARIMA(1,1,1) con e

   

1

,

3 0

,

8

parametri .

1 1

Ponendo nella * :

  d

w z

t t

   

  

B w B a

t t 59

Che è un ARMA applicato alle differenze di

z

ordine d degli , invece che ai valori

z t

t

medesimi. d

 z w

In altri termini, sostituendo con ,

t t z

il processo ARIMA(p,d,q) sulla variabile t

si riduce ad un processo ARMA(p,q)

w

applicato alla variabile .

t

In questo modo il processo non stazionario è

espresso in funzione dell’operatore

 

 B

stazionario e dell’operatore alle

d

 

d

  

1 B

differenze finite .

Ovviamente la classe di modelli

ARIMA(p,d,q), essendo ancor più generale

di quella ARMA, include gli stessi.

60

MODELLO DI REGRESSIONE LINEARE

MULTIPLA

1. Il problema

2. Specificazione del modello

3. Le assunzioni

4. Stimatori OLS e proprietà

2

5. R , variabilità totale , spiegata , residua

6. Previsione

7. Variabili dummy

8. Specificazione del modello

9. Violazioni delle ipotesi del modello

1

1. IL PROBLEMA

• Ricerca di un modello matematico in grado di

esprimere la relazione esistente tra una variabile

di risposta y (quantitativa) e ( ad esempio) k

variabili esplicative

• Si tratta di una relazione asimmetrica del tipo

 

y f x ... x

1 k

Nel caso del modello di regr.lineare multipla

abbiamo che:       

f x ... x x x ... x

1 k 1 1 2 2 k k

che geometricamente corrisponde ad un iperpiano a

k dimensioni

• Perché si studia tale modello

i) facilità con cui può essere interpretato un

iperpiano a k dimensioni 

ii) Facilità di stima dei parametri incogniti j

( j = 1…k)

Nella realtà studiamo un modello del tipo

 

 

y f x ... x u

1 k

Componente componente 2

sistematica casuale

2. IL MODELLO

        

y x x x ... x u

i 1 i 1 2 i 2 3 i 3 k ik i

In forma matriciale

  

y X u

dove

y : vettore (n 1) di osservazioni sulla

x

variabile dipendente

X

: matrice (n k) di osservazioni su

x

k regressori

 : vettore (k 1) di parametri incogniti

x

u : vettore (n 1) di disturbi stocastici

x 3

Le matrici e i vettori sono così definiti

y x x . . . x

   

1 11 12 1 k

   

   

y x x . . . x

2 21 22 2 k

   

   

. . . . . . .

   

 

y X

   

 

. . . . . . .

n k

 

n 1    

   

. . . . . . .

   

   

y x x . . . x

   

n n 1 n 2 nk

 u

   

1 1

   

   

 u

2 2

   

   

. .

   

  

u

   

 

. .

n 1

 

k 1    

   

. .

   

   

 u

   

k n

N.B.

La matrice X ha la prima colonna unitaria nel

caso in cui si consideri un modello con

intercetta nel sistema di riferimento

1 4

multidimensionale

3. LE ASSUNZIONI DEL MODELLO

1) Esiste legame lineare tra variabile

dipendente e regressori

2) Le variabili sono tutte osservabili

3) I coefficienti non sono v.c.

i

4) I regressori X sono non stocastici

5) Il termine u non è osservabile

  

E u 0

6) i 

0 per i j

  

Cov u , u 

7) i j 2

 

per i j

 le u sono omoschedastiche ed incorrelate

i 2

 

 0 0 . . 0

 

2

0 0 . . 0

 

 

 

E u u  

. . . . . .

 

 

2

0 0 . . .

 

8) X ha rango pieno rank (X) = k

n k

condizione necessaria

 

2

u 

N 0

, I

9) hp aggiuntiva da

5

utilizzare nell’analisi inferenziale

4. STIMATORE OLS

y = X + u

Si cercherà quel vettore che minimizza

̂

gli scarti al quadrato:

2

n  

  

min y X

i i

i

:

1

dove X è la riga i-esima di X

i

In forma matriciale

 

ˆ

   

e u y X

  

   

    

min e e o min y X y X

   

   

     

Q e e y X y X

   

  

  

   

y X y X

 

     

     

y y X y y X X X

    

=

perché scalare

Q  

    

2 X y 2 X X 0 (1)

  6


PAGINE

160

PESO

696.21 KB

AUTORE

flaviael

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in economia e commercio
SSD:
Università: Firenze - Unifi
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher flaviael di informazioni apprese con la frequenza delle lezioni di Statistica economica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Firenze - Unifi o del prof Buzzigoli Lucia.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Statistica economica

Statistica economica - i modelli di regressione
Dispensa
Statistica economica - analisi delle serie storiche
Appunto
Statistica economica - serie storiche
Appunto
Statistica economica - Appunti
Appunto