Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

Processi lineari

Un processo stocastico {Z } è un processo lineare se può essere espresso

t t∈T

come una combinazione lineare di variabili aleatorie che costituiscono un

processo white noise, a condizione che la serie dei coefficienti converga in

ψ ∼wn(0,σ ψ

a2 j2

media quadratica, ossia Z =Σ a , con {a } ) e =Σ <∞.

t j=0,…,∞ j t-j t t∈T j=0,…,∞

Prima di studiare le proprietà dei processi lineari è il caso di sottolineare che

esiste una importante relazione tra stazionarietà e linearità, sintetizzata dal

seguente

Teorema di Wold (1938)

Ogni processo stocastico stazionario {X } può essere rappresentato come

t t∈T

somma di un processo stocastico lineare {Z } più un processo

t t∈T ψ

deterministico {V } , tra loro in correlati, ossia X =Z +V , dove Z =Σ a ,

t t∈T t t t t j=0,…,∞ j t-j

∼wn(0,σ ψ μ+Σ β

a2 j2

con {a } ) e =Σ <∞ , V = [α sen (ω t)+ cos(ω t)],

t t∈T j=0,…,∞ t j=1,…,∞ j j j j

≤π, ω

0≤ω dove è la media costante del processo, è la frequenza e {α } e

j j j j=1,…,∞

{β } sono processi white noise tra loro in correlati.

j j=1,…,∞ 17

PROCESSI LINEARI: MOMENTI E PROPRIETA’

Processi lineari

Un processo stocastico {Z } è un processo lineare se può essere espresso

t t∈T

come una combinazione lineare di variabili aleatorie che costituiscono un

processo white noise, a condizione che la serie dei coefficienti converga in

ψ ∼wn(0,σ ψ

a2 j2

media quadratica, ossia Z =Σ a , con {a } ) e =Σ <∞.

t j=0,…,∞ j t-j t t∈T j=0,…,∞

Media di un processo lineare

ψ Σ ψ

E[Z ]=E[Σ a ]= E[a ]= 0, per la linearità dell’operatore valore

t j=0,…,∞ j t-j j=0,…,∞ j t-j ψ ψ

j2

atteso e dal momento che =Σ <∞⇒=Σ <∞ e che E[a ]=0 per

j=0,…,∞ j=0,…,∞ j t-j

definizione di white noise.

Varianza di un processo lineare

ψ Σ ψ Σ ψ ψ Σ ψ σ

2j 2j a2

V[Z ]=V[Σ a ]= V[a ]+ Cov[a a ] = per

t j=0,…,∞ j t-j j=0,…,∞ t-j j≠i j i t-j t-i j=0,…,∞

∀i≠j

le proprietà dell’operatore varianza e Cov[a a ]=0, per definizione di

t-j t-i

white noise.

Si noti che la varianza del processo lineare non dipende dal tempo e che la

Σ ψ j2

condizione <∞ assicura che sia finita.

j=0,…,∞

Covarianza tra variabili di un processo lineare

ψ Σ ψ

Cov[Z , Z ]=E[Z , Z ]=E[(Σ a )( a )]= E[ψ a +ψ a +…)(ψ a

t t-k t t-k j=0,…,∞ j t j=0,…,∞ j t-k 0 t 1 t-1 0 t-

+ψ a +…)].

k 1 t-k-1

Per k=0 si ha la varianza del processo. ψ ψ

2t-1 2t-2

Per k=1 si ha E[ψ a +ψ a +…)(ψ a +ψ a +…)]=ψ E[a ]+ψ E[a ]+…

0 t 1 t-1 0 t-1 1 t-2 0 1 1 2

Σ ψ ψ σ ∀k≠0.

a2

In generale Cov[Z , Z ]= ,

t t-k j=0,…,∞ j j+k 18

Stazionarietà di un processo lineare

Dal momento che

∀t∈T

E[Z ]=0,

t Σ ψ σ ∞, ∀t∈T

2j a2

V[Z ] = <

t j=0,…,∞

Σ ψ ψ σ ∀t∈T, ∀k≠0

a2

Cov[Z , Z ]= ,

t t-k j=0,…,∞ j j+k

un processo lineare è stazionario in senso debole.

Ergodicità di un processo lineare

Un processo lineare è ergodico rispetto alla media se (teorema di Slutsky)

Σ γ Σ Σ ψ ψ σ a2

lim (1/n) =0 ossia se lim (1/n) =

n→∞ k=0,…,n k n→∞ k=0,…,n j=0,…,∞ j j+k

ψ ψ ψ σ a2

lim (1/n) [Σ (ψ + +…+ )] = 0, condizione verificata dal

n→∞ j=0,…,∞ j j j+1 j+n

momento che la somma dei quadrati dei coefficienti è finita.

L’ergodicità rispetto al momento secondo sussiste se e solo se lim n→∞

2

Σ γ Σ ψ ψ σ 2

a2

(1/n) =0 ossia se e solo se lim (1/n) (Σ ) .

k

k=0,…,n n→∞ k=0,…,n j=0,…,∞ j j+k

Σ Σ 2j

Tale condizione è verificata se |ψ | <∞ e |j|ψ <∞.

j=-∞,…,∞ j j=-∞,…,∞

Un processo lineare è invertibile se può essere scritto in funzione dei suoi

ψ

valori passati. Per fare ciò, è necessario che i coefficienti soddisfino alcune

j

condizioni. Per derivare tali condizioni, ossia per valutare l’invertibilità di un

processo lineare, è necessario introdurre i concetti di operatore ritardo e

polinomi nell’operatore ritardo. 19

Operatore ritardo B (backshift)

L’operatore ritardo B associa ad una variabile rilevata al tempo t, la variabile

al tempo t-1, ossia BX =B X . L’operatore ritardo è un operatore lineare che

t-1 t-1

soddisfa le proprietà di additività e omogeneità, ossia B(aX + Y )= aX + Y .

t t t-1 t-1

j

Vale inoltre la proprietà associativa per cui B X = X con, convenzionalmente

t t-j

0

B =I l’operatore identità (si dimostri per induzione su j). L’operatore anticipo

-1 j

(forward) è definito come F=B tale che FX = X e F X = X , ossia come

t t+1 t t+j

inverso dell’operatore ritardo.

Importanti operatori che derivano dall’operatore ritardo sono l’operatore

differenza regolare di ordine 1 (1-B), tale che (1-B) X = X -X , di ordine 2 (1-

t t t-1

2 2 d

B) , tale che (1-2B+B )X = X -2 X + X e in generale di ordine d, (1-B) .

t t t-1 t-2

Analogamente si possono definire operatori differenza stagionali di periodo s

s D s

e ordine D, (1-B ) , dove ad esempio, per D=1, (1-B )X = X - X .

t t t-s

Polinomi nell’operatore ritardo

Si consideri il polinomio di grado n in B

0 1 2 n

A(B)=a B + a B + a B +…+ a B

0 1 2 n

Σ j 0

A(B)= a B , con in generale a =1 e B =I.

j=0,…,n j 0

Applicando A(B) ad un processo {X } si ha

t t∈T

Σ j

A(B)X = a B X = X + a X + a X +…+ a X .

t j=0,…,n j t t 1 t-1 2 t-2 n t-n

Problema: individuare se esiste, e sotto quali condizioni, un (unico) polinomio

-1 -1 -1

A(B) tale che A(B) A(B)= A(B)A(B) =I.

Si consideri il caso n=1, con a =1, a =-a ossia A(B)X = X - aX dove quindi

0 1 t t t-1

-1

A(B)=(1-aB). Allora sarà A(B) =1/(1-aB), inverso del polinomio A(B) scritto in

20

Σ j

forma implicita. E’ noto tuttavia che la serie geometrica q converge a

j=0,…,∞

Σ j

1/(1-q) se e solo se |q|<1. Da ciò segue che 1/(1-aB)= (aB) se e solo

j=0,…,∞

se |a|<1. 2 n

Si consideri ora il caso di un generico n, ossia A(B)=1+a B+ a B +…+ a B .

1 2 n

L’equazione caratteristica A(B)=0 associata al polinomio A(B) ha n radici (o

soluzioni), z , z ,…, z . Allora il polinomio A(B) si potrà fattorizzare nel

1 2 n

prodotto A(B)=(z -B) (z -B)… (z -B) e l’equazione caratteristica A(B)=0 si

1 2 n

potrà scrivere, dividendo entrambi i membri per il prodotto z z …z come (z -

1 2 n 1

B)/ z (z -B)/ z …(z -B)/ z =0 ossia (1-B/z )(1-B/z )…(1-B/z )=0. L’inverso del

1 2 2 n n 1 2 n

-1 -1 -1

polinomio (1-B/z )(1-B/z )…(1-B/z ) è dato (1-B/z ) (1-B/z ) …(1-B/z ) .

1 2 n 1 2 n

Ogni fattore 1/(1-B/z ) di questo prodotto è il limite a cui converge la serie

i ∀i=1,…,n.

Σ j

(B/z ) se e solo se |B/z |<1 ossia se |z |>1, In

geometrica j=0,…,∞ i i i

altri termini, il polinomio di grado n A(B)= è invertibile se e solo se tutte le

radici dell’equazione caratteristica A(B)=0 ad esso associata sono in modulo

maggiori di uno o, equivalentemente, giacciono all’esterno del cerchio di

raggio unitario.

Nel caso di un polinomio di grado uno A(B)=1-aB la condizione di invertibilità

|a|<1 è equivalente alla condizione |1/a|>1 ossia il polinomio di grado uno

A(B)=1-aB è invertibile se la radice dell’equazione caratteristica 1-aB=0

[B=1/a] associata al polinomio A(B)=1-aB è in modulo maggiore di uno.

Invertibilità di un processo lineare

ψ ∼wn(0,σ ψ

a2 j2

Il processo lineare Z =Σ a , con {a } ) e =Σ <∞ può

t j=0,…,∞ j t-j t t∈T j=0,…,∞ ψ(B)=

essere scritto in funzione dell’operatore ritardo B come Z =ψ(B)a , dove

t t

ψ 2

1+ψ B+ B +… è un polinomio nell’operatore ritardo di ordine infinito. Allora

j 2 ψ(B) π

-1 2

{Z } è invertibile se (definizione) esiste =Π(B)= 1+π B+ B +… tale

t t∈T j 2 21

Π(B)Z

che =a , ossia se (condizione necessaria) le radici dell’equazione

t t ψ(B)=0 ψ(B)

caratteristica associata al polinomio sono tutte in modulo

maggiori di uno o equivalentemente giacciono tutte all’esterno del cerchio di

raggio unitario.

Rappresentazione MA(∞) e AR(∞) di un processo lineare.

La rappresentazione Z =ψ(B)a

t t

di un processo lineare è detta MA(∞), dove MA è acronimo di Moving

Average e indica che il processo lineare {Z } è scritto in forma di processo

t t∈T

media mobile di ordine infinito, come combinazione lineare infinita di variabili

ψ ψ

che costituiscono un processo white noise, Z =a + a + a +… .

t t 1 t-1 2 t-2

La rappresentazione Π(B)Z =a ,

t t

di un processo lineare è detta AR(∞), dove AR è acronimo di Auto

Regressive e indica che il processo lineare {Z } è scritto come

t t∈T

combinazione lineare infinita dei suoi valori passati più una innovazione

∼wn(0,σ π

a2

puramente casuale, {a } ), che interviene al tempo t, Z =a - Z -

t t∈T t t 1 t-1

π Z -….

2 t-2 22

Condizioni di invertibilità e stazionarietà di processi MA(∞) e AR(∞)

Mentre un processo MA(∞) è sempre stazionario ma invertibile solo se tutte

ψ(B)=0

le radici dell’equazione caratteristica sono in modulo maggiori di uno,

un processo AR(∞) è sempre invertibile (per costruzione) ma stazionario solo

Π(B)=0

se tutte le radici dell’equazione caratteristica sono in modulo maggiori

di uno.

Approssimazione finita di processi MA(∞) e AR(∞)

Nella pratica una rappresentazione di un processo che coinvolga infiniti

parametri non è di grossa utilità. Inoltre, come si vedrà meglio in seguito, le

condizioni di stazionarietà e invertibilità di processi a media mobile e

autoregressivi e la condizione di ergodicità in media implicano che

all’aumentare del ritardo k diminuisca l’effetto, sulla variabile al tempo t, dei

valori passati della variabile stessa Z e delle variabili casuali a che

t-k t-k

costituiscono le innovazioni. Per questi motivi è sensato e opportuno

considerare approssimazioni finite di processi MA(∞) e AR(∞). 23

FUNZIONI DI AUTOCOVARIANZA E DI AUTOCORRELAZIONE GLOBALE

E PARZIALE DI UN PROCESSO STAZIONARIO

La covarianza di un processo stazionario {X } non dipende dal tempo t ma

t t∈T γ:

solo dal ritardo k e può quindi essere rappresentata a una funzione I→R

dove I è l’insieme dei numeri interi e R l’insieme dei numeri reali, tale che

γ

k = Cov[X , X ].

k t t-k

Tale funzione è detta funzione di autocovarianza di un processo stazionario.

Si noti che:

• γ =σ 2

= Cov[X , X ]=V[X ]

0 t t t

• γ γ γ

= poiché = Cov[X , X ]= Cov[X , X ]

−k

k k t t-k t+k t

• γ ⇒

lim =0 il processo è ergodico in media per il teorema di Slutsky.

k→∞ k

Una misura normalizzata e adimensionale della relazione lineare che

intercorre tra due variabili distanti k ritardi è data dalla funzione di

ρ:

autocorrelazione globale I→[-1,1], tale che

ρ γ

1/2

k = Corr[X , X ] =Cov[X , X ]/ {V[X ] V[X ]} = /γ .

0

k t t-k t t-k t t-k k

Si noti che:

• ρ ρ γ γ ρ γ

= poiché = e = /γ

−k −k

k k k k 0

• ρ ∈[-1,1] ρ ∈[-1,1]

(è un coefficiente di correlazione!) come segue da:

k k

⇔ ⇔

|γ /γ |≤1⇔ |γ |≤γ (nell’ipotesi non restrittiva in cui E[X ]=0) |E[X

k 0 k 0 t t

≤ t2 t-k2 1/2

X ]| {E[X ] E[X ]} che per la disuguaglianza di Cauchy-Schwarz

t-k 24

nello spazio in cui è definito il prodotto interno < X , X > := E[X , X ] è

t t-k t t-k

sempre verificato.

• ρ ⇒

Dunque =1 (–1) massima correlazione lineare positiva (negativa)

k ρ ⇒

tra X e X ; =0 assenza di autocorrelazione tra le variabili X e X

t t-k k t t-k

che si dicono così incorrelate.

• ρ è invariante in modulo rispetto a trasformazioni lineari della variabile

k ρ

X . Infatti, posto E[X ]=0, = Corr [aX + b, X ]= Cov [aX + b, X ]/

t t k t t-k t t-k

1/2 2

{V[aX + b] V[X ]} = E[aX X + bX ]-E[aX + b]E[X ]/ {a V[X ]V[X

t t-k t t-k t-k t t-k t t-

γ ±ρ

1/2 2 1/2

]} = aCov[X X ] / {a V[X ] V[X ] } =aγ / |a|/ =

t t-k t t-k k 0 k.

k

• T

Considerato il vettore X = [X X … X ] delle v.a. che costituiscono il

t 1 2 N tT N×N

} , la matrice E[X X ]∈R

processo stazionario a media zero { X

t t=1,…,N t

è la matrice di varianza e covarianza del processo,

γ γ γ

⎡ ⎤

K −

0 1 1

N

⎢ ⎥

γ γ γ

K

⎢ ⎥ ∈R

tT tT N×N

1 0 2

N

X ]= e la matrice P = E[X X ]/γ è la

E[X

t (N) t 0

⎢ ⎥

M M K M

⎢ ⎥

γ γ γ

K

⎣ ⎦

− −

1 2 0

N N

matrice di autocorrelazione o matrice di Toeplitz del processo,

ρ ρ ρ

⎡ ⎤

K −

0 1 1

N

⎢ ⎥

ρ ρ ρ

K

⎢ ⎥

1 0 2

N

P = . La matrice di Toeplitz è simmetrica anche

(N) ⎢ ⎥

M M K M

⎢ ⎥

ρ ρ ρ

K

⎣ ⎦

− −

1 2 0

N N

rispetto alla diagonale principale è centrosimmetrica e circolante.

• ρ

Se è la funzione di autocorrelazione di un processo stazionario, allora

k ∫

esiste una funzione, f(ω),ω∈[-π,π], tale che f(ω)≥0 e f(ω)dω=1. Tale

[-π,π]

funzione è la funzione di densità spettrale del processo, definita come

ρ

f(ω)=1/(2π)[1+2Σ cos (ω k)], attraverso cui è possibile studiare le

k=1,…,∞ k 25

ω

proprietà di un processo nel dominio delle frequenze anziché del tempo.

ρ k

Esercizio: disegnare =φ per valori di 0<φ<1 -1<φ<0.

e

k

La funzione di autocorrelazione globale misura, al variare di k, la relazione

lineare che esiste tra X e X considerando anche le variabili X ,…, X .

t t-k t-1 t-k+1

Una misura della relazione lineare tra X e X che non tenga conto della

t t-k

dipendenza lineare tra X e X e le variabili X ,…, X è data dalla funzione

t t-k t-1 t-k+1

φ:

di autocorrelazione parziale N→[-1,1], tale che

φ

k =Corr [X , X I X ,…, X ]

kk t t-k t-1 t-k+1 φ

dove N è l’insieme dei numeri naturali. Il coefficiente misura la

kk

correlazione tra X e X una volta spiegata la dipendenza lineare tra X e X

t t-k t t-k

e le variabili X ,…, X . Il coefficiente di autocorrelazione parziale può

t-1 t-k+1 su X nel

anche essere interpretato come il coefficiente di regressione di X

t t-k

modello X =φ X +φ X +…+φ X +a , k=1,2,…

t k1 t-1 k2 t-2 kk t-k t

∀t,

da cui, nell’ipotesi E[X ]=0 E[X I X ,…, X ] =φ X +φ X +…,

t t t-1 t-k+1 k1 t-1 k2 t-2

k=1,2,… che misura l’aumento di X al variare di una unità della variabile X ,

t-k t-k

una volta spiegate le relazioni lineari tra le variabili intermedie. Da tale

relazione si può ricavare una relazione tra i coefficienti di autocorrelazione

globale e parziale che consente di calcolare questi ultimi a partire dai primi.

Infatti

X =φ X +φ X +…+φ X +a , k=1,2,…

t k1 t-1 k2 t-2 kk t-k t

γ φ γ

E[X X ]=φ +φ +…+φ , k=1,2,…

t t-k k1 k-1 k2 k-2 kk 0 γ

e dividendo entrambi i membri per la varianza del processo ,

0 26

ρ ρ ρ ρ

=φ +φ +…+φ , k=1,2,…

k k1 k-1 k2 k-2 kk 0

e in generale

ρ ρ ρ ρ ∀j=1,…,k

=φ +φ +…+φ , e k=1,2,…

j k1 j-1 k2 j-2 kk j-k

o in forma matriciale

ρ ρ ρ ρ φ

⎡ ⎤ ⎡ ⎤ ⎡ ⎤

K −

k k

1 0 1 1 1

⎢ ⎥ ⎢ ⎥ ⎢ ⎥

ρ ρ ρ ρ φ

K

⎢ ⎥ ⎢ ⎥ ⎢ ⎥

= k k

2 1 0 2 2

⎢ ⎥ ⎢ ⎥ ⎢ ⎥

M M M K M M

⎢ ⎥ ⎢ ⎥ ⎢ ⎥

ρ ρ ρ ρ φ

K

⎣ ⎦ ⎣ ⎦ ⎣ ⎦

− −

k k N kk

1 2 0

ed equivalentemente

ρ φ

⎡ ⎤ ⎡ ⎤

k

1 1

⎢ ⎥ ⎢ ⎥

ρ φ

⎢ ⎥ ⎢ ⎥

= k

2 2 .

P

⎢ ⎥ ⎢ ⎥

k

( )

M M

⎢ ⎥ ⎢ ⎥

ρ φ

⎣ ⎦ ⎣ ⎦

k kk

Segue dalla regola di Cramer per la soluzione esplicita (e unica) di un

sistema quadrato con matrice dei coefficienti non singolare che il valore

φ det Q / det P

kk= (k) (k)

dove Q è la matrice che si ottiene dalla matrice di Toeplitz P ,

(k) (k)

ρ ρ T

… ] .

sostituendone l’ultima colonna con il vettore dei termini noti [ρ 1 2 k

θa θ=0.7

Esercizio: Si consideri il processo stazionario X = a - con e se

t t t-1

ne disegnino la funzione di autocorrelazione globlale e parziale. Si noti che il

processo è un’approssimazione finita di un processo lineare MA(∞), in

particolare, un processo MA(1).

Esercizio: Si disegni la funzione di autocorrelazione parziale del processo

φX ρ k

considerato precedentemente, la cui forma è X = + a e avente =φ

t t-1 t k

per valori di 0<φ<1 -1<φ<0. Il processo è un’approssimazione finita di un

e

processo lineare AR(∞), in particolare, un processo AR(1). 27

STIMA DEI MOMENTI E DELLE FUNZIONI DI AUTOCOVARIANZA E DI

AUTOCORRELAZIONE GLOBALE E PARZIALE DI UN PROCESSO

STAZIONARIO μ, γ ρ φ

Osservata la serie storica {x } , le stime dei momenti , e si

t t=1,...,N k k kk

ottengono dai momenti campionari:

• μ Σ

*

=(1/N) x

t=1,…,N t

• γ Σ μ μ

k* * *

= (1/N) (x - )( x - )

t=k+1,…,N t t-k

• ρ γ

k* k* 0*

= /γ

• φ kk* (k)* (k)*

= det Q / det P

Si noti che:

• μ

*

Per un processo stazionario ed ergodico in media, lo stimatore è

μ.

corretto e consistente per

• γ γ

k*

Lo stimatore è consistente e asintoticamente corretto per ed è

k

inoltre più efficiente di quello che si otterrebbe dividendo per N-k per N.

ρ φ

k* kk*

Tali proprietà si riflettono in quelle di e .

• ρ

Per ottenere stime attendibili di è necessario disporre di almeno 50

k

osservazioni e le autocorrelazioni stimate non dovrebbero superare il

25-30% delle osservazioni disponibili.

• ρ k*

Non è necessario che una serie sia stazionaria per calcolare , anzi,

ρ k*

come si vedrà, il comportamento di può essere utilizzato per

individuare eventuali elementi di non stazionarietà.

• ρ k*

Il grafico di al variare di k viene chiamato correlogramma empirico o

campionario. 28

INFERENZA SUL COEFFICIENTE DI AUTOCORRELAZIONE GLOBALE

DI UN PROCESSO STAZIONARIO

Nell’ipotesi in cui il processo stocastico {X } sia non autocorrelato, allora si

t t∈T

dimostra che

• ρ k*

per N sufficientemente elevato, ha distribuzione asintotica Normale

ρ ∼N(0,1/N).

k*

a media nulla e varianza 1/N, ossia In questo caso ci si

ρ k* -

aspetta che, per N sufficientemente elevato, cada nell’intervallo [-N

1/2 -1/2

z , N z ] con probabilità pari a 1-α. Per questo nei

1-α/2 1-α/2

correlogrammi campionari di un processo che si suppone non

autocorrelato, le stime dei coefficienti di autocorrelazione sono

α=0.05 -1/2

accompagnate da intervalli di confidenza al livello del tipo [-N

-1/2

1.96, N 1.96]. Se il valore stimato del coefficiente cade all’esterno di

tali bande, allora esso si può ritenere significativamente diverso da zero

con probabilità pari a 0.95;

• per N non è sufficientemente elevato da garantire l’approssimazione

ρ 2

k*

asintotica, allora una stima della varianza di è data da 1/N-k/N .

Se, al contrario, il processo si suppone autocorrelato, allora vale

ρ k*

l’approssimazione di Bartlett per la varianza di che si distingue in

• Σ ρ ρ ρ ρ

k* j2 j2 k2

V(ρ ) = (1/N) (ρ + - 4ρ + 2ρ ), se il processo ha

j=-∞,…,∞ j+k j-k j j-k

∼N(0,σ 2

distribuzione normale {X } );

t t∈T

• ρ ρ

k* j2

V(ρ ) = (1/N) [1+2Σ ], se il processo è tale per cui =0 , k>q. In

j=1,…,q k

altri termini: se la funzione di autocorrelazione globale si annulla dopo il

ρ

ritardo q, allora la varianza di può essere stimata attraverso la

k

ρ j2

quantità (1/N) [1+2Σ ].

j=1,…,q 29

Nell’ipotesi di processo autocorrelato in cui la funzione di autocorrelazione

φ kk*

parziale si annulli dopo il ritardo p, ossia =0 per k>p, allora V(φ ) = 1/N,

kk

per k>p.

INFERENZA SU UN INSIEME DI COEFFICIENTI DI AUTOCORRELAZIONE

GLOBALE

Al di là della significatività di ogni singolo coefficiente di correlazione, è

importante sapere se un insieme di m coefficienti di autocorrelzione sono tutti

congiuntamente non significativamente diversi da zero: è l’ipotesi di non

autocorrelazione di un processo fino al ritardo m che viene saggiata

attraverso il test portemanteau di Ljung-Box, la cui ipotesi nulla e statistica

ρ ρ Σ

test sono rispettivamente H : =ρ =…= =0 e Q =N(N+2) (1/N-

0 1 2 m m k=1,…,m

ρ ∼ χ

2 2m

k) .

k

RAPPRESENTAZIONE NEL DOMINIO DELLE FREQUENZE: ANALISI

SPETTRALE

L’ipotesi di base nell’analisi spettrale di una serie storica è che ogni processo

stazionario possa essere rappresentato da una combinazione lineare di

funzioni periodiche. Dunque, anche la sua variabilità potrà essere valutata

sulla base del contributo di delle varie componenti alle singole frequenze.

π,π] →

Si ricordi la funzione di densità spettrale di un processo stazionario f:[-

ωf(ω)

[0,1], tale che ρ

f(ω) =1/(2π)[1+2Σ cos (ωk)].

k=1,…,∞ k

Vale la relazione f(ω)=g(ω)/γ , dove

0 30

γ

g(ω)=1/(2π)[γ +2Σ cos (ωk)]

0 k=1,…,∞ k

è lo spettro del processo e consente di rappresentare un processo

stazionario nel dominio delle frequenze, cioè, la variabilità del processo tra le

ω ω+dω

frequenze e è espressa da g(ω), mentre nel dominio temporale la

γ

variabilità tra t e t+k è espressa da . Lo spettro è infatti la trasformata di

k

Fourier della funzione di autocovarianza del processo. Infatti, in generale, la

trasformata di Fourier di una funzione a dominio discreto è data da

-itω

g(ω) =Σ f(t)e

t= -∞,…,∞ ωt ωt]

=Σ f(t) [cos – i sen

t= -∞,…,∞ ω ∈[- π,π]

e nell’ipotesi in cui f(t) = f(-t) funzione pari e

ωt]

= (½π) [f(0) + 2Σ f(t) cos

t=1,…,∞

γ(k) γ γ(0)=γ

e nel caso di t=k, = con

-k 0

γ

g(ω) = (½π)[γ +2Σ cos (ωk)].

0 k=1,…,∞ k

Poiché g(ω)dω=γ , l’area sottostante lo spettro è pari alla varianza del

[-π,π] 0

processo. θa

Esercizio: disegnare la funzione di densità spettrale del processo X = a -

t t t-

θ=0.7 θ=-0.7 φX φ=0.7 φ=-0.7.

con e e quella del processo X = + a con e

1 t t-1 t

ω∈[−π,π], ω/2π∈[−1/2,1/2].

Si osservi che dato che allora Posto f=ω/2π, allora

p=1/f è il periodo della serie in funzione della frequenza f espressa nell’unità

ω

di tempo in cui sono espressi i dati, mentre è la frequenza angolare in

radianti. Ad esempio, per dati mensili, p=12 f=1/p=1/12=0.08

⇒ω=2π0.08=0.05.

(fondamentale armonica stagionale per dati mensili) e 31

Segue che vicino all’origine ci sono le basse frequenze, associate alle

componenti periodiche di lungo periodo (tendenza-ciclo, p>36 per dati

mensili).

Al contrario, lontano dall’origine ci sono le alte frequenze, associate alle

componenti periodiche di breve periodo (rumore, p< 0 per dati mensili). 32

PROCESSI MEDIA MOBILE DI ORDINE q

I processi media mobile di ordine q, o MA(q) dove MA p è acronimo di Moving

Average, sono approssimazioni finite di processi lineari nella

rappresentazione MA(∞). Dunque, un processo stocastico {Z } è un

t t∈T

processo media mobile di ordine q se può essere espresso come una

combinazione lineare finita, di q variabili aleatorie che costituiscono un

processo white noise, e precisamente ∼wn(0,σ a2

Z = a -θ a -θ a - … -θ a con {a } )

t t 1 t-1 2 t-2 q t-q t t∈T

o equivalentemente

θ θ ∼wn(0,σ

2 q. a2

Z = (B)a con (B) = 1-θ B-θ B - … -θ B con {a } ).

t q t q 1 2 q t t∈T

Proprietà dei processi MA(q)

Le proprietà dei processi MA(q) seguono dalle proprietà dei processi lineari

ψ = −θ ψ = θ

MA(∞) studiati nella Lezione 3, posto che per j=1,…,q, =1 per

j j 0 0

ψ =0 per j>q.

j=0 e j

In particolare, i processi MA(q) sono sempre stazionari, invertibili se le

θ

radici dell’equazione caratteristica (B) = 0 sono tutte in modulo

q

maggiori di uno. Inoltre, la loro funzione di autocorrelazione globale si

annulla dopo il ritardo q, mentre la funzione di autocorrelazione parziale

non si annulla mai, ma decresce rapidamente verso lo zero con

andamento esponenziale o cosinusoidale smorzato che dipende dai

θ

valori dei parametri .

j 33

∼MA(q),

Infatti se {Z } allora (si calcolino i seguenti momenti per esercizio)

t t∈T

• E[Z ]= 0

t Σ θ σ

• 2j a2

]=

V[Z

t j=0,…,q

• Σ θ θ σ ∀k

a2

Cov[Z , Z ]= ,

t t-k j=0,…,q j j+k

ossia {Z } è stazionario in senso debole (senza dover porre alcuna

t t∈T θ

condizione sui coefficienti poiché sono in numero finito e pertanto loro

somme sono finite) e la funzione di autocorrelazione globale è

• ρ γ γ Σ θ θ θ ∀k

2j

= / = /Σ

k k 0 j=0,…,q j j+k j=0,…,q

γ ρ

Si osservi che = 0 se k>q e dunque anche = 0 se k>q. Al contrario, la

k k

funzione di autocorrelazione parziale, che al variare di k si può calcolare

φ φ

come = det Q / det P , non si annulla mai, ma decresce

kk kk= (k) (k)

rapidamente verso lo zero con andamento esponenziale o cosinusoidale

θ

smorzato che dipende dai valori dei parametri .

j

Il concetto di innovazione

Si supponga di avere osservato una serie storica generata da un processo

stazionario in senso debole fino al tempo t-1 compreso, ossia {…, Z , Z , Z ,

-1 0 1

Z ,…, Z , Z } := H . In questo caso, la variabile Z può essere scomposta

2 t-2 t-1 t-1 t

nella somma di due componenti indipendenti (ortogonali):

1. la parte di Z che è nota, nel senso che può essere spiegata come

t

combinazione lineare delle variabli della famiglia H e

t-1 34

2. la parte di Z che è non nota, nel senso che, al tempo t, non può essere

t

spiegata sulla base del suo passato.

Allora α

1. è la proiezione di Z nello spazio generato da Z ossia E[Z I H ] = Z

t t t t-1 1 t-

α α

+ Z + Z +…

2 t-2 3 t-3

1

2. è la componente residua E[Z I H ] - Z = a , che rappresenta tutta

t t-1 t t

l’informazione sconosciuta al tempo t e per questo è detta innovazione.

t2

Il valore E [a ] rappresenta la distanza al quadrato tra Z e la sua proiezione

t-1

H .

t-1

Processi MA(1) θa

Esercizio. Si consideri il processo MA(1) Z = a - se ne ricavino media,

t t t-1

varianza e covarianza. Si mostri che è stazionario e si derivino le condizioni

di invertibilità. Si ricavi la funzione di autocovarianza e di autocorrelazione

globale e parziale e, di queste ultime due, si disegnino i grafici per valori

θ

(opportuni) di positivi e negativi.

Implicazioni della condizione di invertibilità di un processo MA(1)

Come risulta dal precedente esercizio, un processo MA(1) è invertibile se e

⎜θ ⎜<

solo se 1. Questa condizione ha due importanti implicazioni:

(i) unicità della funzione di autocorrelazione globale associata al

ρ θ θ

2

processo. Infatti è immediato verificare che = - / (1+ ) assume

1 35

θ θ ⎜θ ⎜<

lo stesso valore sia per = 1/x che per = x, ma la condizione

1 assicura che solo uno dei due valori sia accettabile;

(ii) possibilità di rappresentare il processo MA(1) nella forma AR(∞).

θa

Infatti, se il processo MA(1) Z = a - è invertibile, allora esiste il

t t t-1

-1 -1

polinomio (1-θB) tale che (1-θB) Z = a e, come è stato osservato

t t

relativamente all’invertibilità dei polinomi nell’operatore ritardo, (1-

θB) ⎜θ ⎜<

-1 è il limite a cui converge, per 1, la serie geometrica

Σ Σ θ θ

j j 2

(θB) e dunque (θB) Z = a ossia Z = a - Z - Z

j=0,…,∞ j=0,…,∞ t t t t t-1 t-2

θ

3 Z …

- t-3

Si osservi che la (ii) si può ottenere in forma ricorsiva ricavando Z , Z , …

t t-1

θa θa

, a , ossia Z = a - e Z = a - da cui a = Z +

in funzione di a t t-1 t t t-1 t-1 t-1 t-2 t-1 t-1

θa θ θa

2

e quindi Z = a - Z + a . A sua volta, a = Z + così che Z =

t-2 t t t-1 t-2 t-2 t-2 t-3 t

θ θ θ θ θ

2 3 22 33

a - Z - Z + a e così via fino a Z = a - Z - Z - Z …

t t-1 t-2 t-3 t t 1 t-1 t-2 t-3

⎜θ ⎜< Σ θ j

dove la condizione 1 assicura che sia finita.

j=0,…,∞ i

Processi MA(2) θ θ

Un processo MA(2) è definito come Z = a - a - a .

t t 1 t-1 2 t-2

θ θ

E[Z ] = E[a - a - a ] = 0

t t 1 t-1 2 t-2

θ θ θ θ σ

2 12 22 2

V[Z ] = E[(a - a - a ) ] = (1 + + )

t t 1 t-1 2 t-2 a

γ θ θ θ θ Σ θ θ σ a2

= E[(a - a - a ) (a - a - a )] =

k t 1 t-1 2 t-2 t 1 t-1 2 t-2 j=0,…,2 j j+k

γ θ θ σ 2

= (-θ + )

1 1 1 2 a

γ σ 2

= -θ

2 2 a

γ ∀

= 0 , k > 2

k 36

da cui segue che

ρ θ θ θ θ

12 22

= (-θ + )/ (1 + + )

1 1 1 2

ρ θ θ

12 22

= -θ / (1 + + )

2 2

ρ ∀

= 0 , k > 2.

k

Il processo è invertibile se e solo se le radici dell’equazione caratteristica 1-

θ θ 2

B - B =0 sono in modulo esterne al cerchio di raggio unitario. Imponendo

1 2

tale condizione si ottengono le seguenti condizioni di invertibilità per un

θ θ θ θ

processo MA(2): + <1, - <1, Iθ I<1.

2 1 2 1 2

Esercizio. Si disegnino le funzioni di autocorrelazione globale e parziale di

θ θ

un processo MA(2) e la sua funzione di densità spettrale per valori di e

1 2

che soddisfino le condizioni di invertibilità. Si commentino tutti i grafici. 37

PROCESSI AUTOREGRESSIVI DI ORDINE p

I processi autoregressivi di ordine p, o AR(p) dove AR è acronimo di Auto

Regressive, sono approssimazioni finite di processi lineari nella

rappresentazione AR(∞). Dunque, un processo stocastico {Z } è un

t t∈T

processo autoregressivo di ordine p se può essere espresso come una

combinazione lineare finita, di p-1 variabili ritardate Z , Z ,…,Z più una

t-1 t-2 t-p

innovazione che segue un processo white noise, e precisamente

a t a2

φ ∼wn(0,σ

Z = Z +φ Z + … +φ Z + con {a } )

a

t 1 t-1 2 t-2 p t-p t t∈T

t

o equivalentemente 2 p. a2

φ φ ∼wn(0,σ

(B)Z = con (B) = 1-φ B-φ B - … -φ B con {a } ).

a

q t t q 1 2 p t∈T

t

Proprietà dei processi AR(p)

I processi AR(p) sono sempre invertibili per definizione, ma in generale non

sono stazionari, dal momento che la media del processo al tempo t è una

funzione del tempo: φ φ

E[Z ] = E[φ Z +φ Z + … +φ Z + ]= E[Z ] + E[Z ] + … +φ E[Z ].

a

t 1 t-1 2 t-2 p t-p t 1 t-1 2 t-2 p t-p

La condizione di stazionarietà di un processo AR(p) coincide con la

condizione di invertibilità di un processo MA(q) ossia affinchè il processo

φ

AR(p) sia stazionario, le radici dell’equazione caratteristica (B)=0 devono

q

essere tutte esterne al cerchio di raggio unitario. Nell’ipotesi in cui questa

condizione sia soddisfatta, si possono calcolare i momenti del processo. 38

Media di un processo AR(p) stazionario

φ φ

E[Z ] = E[φ Z +φ Z + … +φ Z + ]= E[Z ] + E[Z ] + … +φ E[Z ].

a

t 1 t-1 2 t-2 p t-p t 1 t-1 2 t-2 p t-p

Se il processo è stazionario, allora E[Z ] = E[Z ] =… =E[Z ] e dunque

t t-1 t-q

φ φ ⇒

] = E[Z ] + E[Z ] + … +φ E[Z ] E[Z ] = 0.

E[Z

t 1 t 2 t p t t

Varianza di un processo AR(p) stazionario

t2

V[Z ] = E[Z ]

t (φ Z +φ Z + … +φ Z + )] =

= E[Z a

t 1 t-1 2 t-2 p t-p t

= E[φ Z Z +φ Z Z + … +φ Z Z + Z )] =

a

1 t t-1 2 t t-2 p t t-p t t

= E[φ Z Z +φ Z Z + … +φ Z Z + Z )]

a

1 t t-1 2 t t-2 p t t-p t t

ossia 2a

γ φ γ γ γ σ

= +φ + … +φ +

0 1 1 2 2 p p

2a

σ γ

dal momento che E[Z ]= e E[Z Z ] = .

a

t t t t-k k

γ

Dividendo entrambi i membri per si ha

0 2a

ρ ρ ρ σ γ

φ +φ + … +φ + /

1 = 1 1 2 2 p p 0

e dunque 2a

γ σ /(1-φ ρ ρ ρ

= -φ - … -φ ).

0 1 1 2 2 p p

Funzioni di autocovarianza e autocorrelazione di un processo AR(p)

stazionario

Cov[Z , Z ] = E[Z Z ] = E[Z (φ Z +φ Z + … +φ Z + )] che, dal

a

t t-k t t-k t 1 (t-k)-1 2 (t-k)-2 p (t-k)-p t-k

∀k≠0,

momento che E[Z ]= 0, è uguale a

a

t t-k γ φ γ γ γ

= +φ + … +φ

k 1 k-1 2 k-2 p k-p 39

da cui segue ρ φ ρ ρ ρ

= +φ + … +φ .

k 1 k-1 2 k-2 p k-p

Per k=1,…, p si ha un sistema lineare di p equazioni in p incognite che in

forma matriciale può essere scritto come

ρ φ

⎡ ⎤ ⎡ ⎤

1 1

⎢ ⎥ ⎢ ⎥

ρ φ

⎢ ⎥ ⎢ ⎥

=

2 2

P

⎢ ⎥ ⎢ ⎥

p

( )

M M

⎢ ⎥ ⎢ ⎥

ρ φ

⎢ ⎥ ⎢ ⎥

⎣ ⎦ ⎣ ⎦

p p

dove P è la matrice di Toeplitz di dimensione p del processo. Il sistema

(p)

lineare prende il nome di sistema di equazioni di Yule-Walker ed è evidente

che:

• φ , φ ,...φ

noti i valori dei parametri è possibile ricavare i valori dei

1 2 p

ρ , ρ ,...ρ ρ φ ρ

coefficienti di autocorrelazione  in modo ricorsivo: = ,

1 2 p 1 1 0

ρ φ ρ ρ ρ φ ρ ρ ρ

= +φ , = +φ +φ , ... ;

2 1 1 2 0 3 1 2 2 1 3 0

• φ , φ ,...φ

se i valori dei parametri non sono noti, possono essere stimati

1 2 p

in modo ricorsivo sulla base delle stime dei coefficienti di

*(p) –1 ρ

autocorrelazione globale e parziale sulla base della relazione P (p)

∗ ∗

*(k) –1

φ ρ

= dove P è l’inversa della matrice di Toeplitz stimata, è il

(p) (p)

∗ ∗ ∗ ∗

T

ρ ... ρ φ

vettore p-dimensionale dei coefficienti stimati [ρ ] e =

1 2 p (p)

∗ ∗ ∗ T

φ ... φ

[φ ] .

1 2 p

In generale, i processi AR(p) sono sempre invertibili e stazionari se le

φ

radici dell’equazione caratteristica (B) = 0 sono tutte in modulo

p

maggiori di uno. Inoltre, la loro funzione di autocorrelazione globale non

40

si annulla mai, ma decresce rapidamente verso lo zero con andamento

esponenziale o cosinusoidale smorzato che dipende dai valori dei

φ

parametri , mentre la funzione di autocorrelazione globale si annulla

j

dopo il ritardo p.

Processi AR(1)

Si consideri il processo a2

φ ∼wn(0,σ

Z = Z + con {a } ).

a

t t-1 t t∈T

t

Il processo è invertibile ma stazionario solo se la soluzione di (1-φB)=0 è in

modulo maggiore di uno ossia se IφI<1. Posto che E[Z ]=0, allora la varianza

t

2 a2

φ σ

del processo sarà V[Z ] = V[φ Z + ] = V[Z ] + e dal momento che

a

t t-1 t t-1

2

a2

γ γ

V[Z ]=V[Z ]= si ha =σ /(1-φ ). I valori dei coefficienti di

t-1 t-1 0 0

autocorrelazione globale (così come i valori della funzione di autocovarianza)

possono essere ricavati in modo ricorsivo dalle equazioni di Yule-Walker.

ρ φ ρ ρ ρ

Infatti, da = +φ + … +φ , per k=1,2,… si ha che

k 1 k-1 2 k-2 p k-p

ρ φ ρ

=

1 1 0

ρ φ ρ ρ

= +φ

2 1 1 2 0

ρ φ ρ ρ φ ρ

= +φ +

3 1 2 2 1 3 0 ρ φ φ ∀

ossia, considerato che =1, =φ e =0, j>1

0 1 j

ρ φ

=

1 2

ρ φ ρ φ

= =

2 1 3

ρ φ ρ φ

= =

3 2

ed in generale, per un processo AR(1),

k

φ

ρ = .

k 41

φ

La funzione di autocorrelazione parziale, =det Q /det P si trova

kk (k) (k) φ

ρ ρ 1

0 1 φ φ

ρ ρ 2

φ φ

facilmente. Infatti, per k=1, =ρ =φ; per k=2, = e dal

=

1 2

11 1 22 ρ ρ φ

1

0 1

ρ ρ φ 1

1 0

momento che la matrice al numeratore è singolare (la seconda colonna è

φ),

combinazione lineare della prima a coefficiente il suo determinante è

, k>1. In altri termini,

uguale a zero e così il determinante di tutte le matrici Q

(k)

la funzione di autocorrelazione globale di un processo AR(1) non si annulla

φ

mai ma decresce in modo esponenziale o oscillatorio a seconda che sia

maggiore o minore di zero rispettivamente, mentre la funzione di

autocorrelazione parziale si annulla dopo il primo lag che sarà positivo e

φ

negativo a seconda che sia maggiore o minore di zero rispettivamente.

Rappresentazione MA(∞) di un processo AR(1)

Un processo AR(1) stazionario può sempre essere rappresentato come un

-1

φB)Z ⇒ φB) ⇒ φ

processo MA(∞). Infatti (1- = Z = (1- Z = + +

a a a a

t t t t t t t -1

2

φ + … dal momento che se il processo è stazionario vale la condizione

a t –2

IφI<1. Si disegnino le funzioni di autocorrelazione globale e parziale di

Esercizio. φ

un processo AR(1) e la sua funzione di densità spettrale per valori di che

soddisfino le condizioni di stazionarietà. Si commentino tutti i grafici.

Processi AR(2)

Un processo AR(2) è definito come 42

a2

φ ∼wn(0,σ

Z = Z +φ Z + con {a } ).

a

t 1 t-1 2 t-2 t t∈T

t

Il processo è invertibile ma stazionario solo se la soluzione di (1-

2

φ − φ φ φ

B B )=0 è in modulo maggiore di uno ossia se -φ <1, +φ <1, Iφ I<1.

1 2 2 1 2 1 2

Posto che E[Z ]=0, allora si ha che

t

2a

σ /(1- φ ρ ρ

γ = -φ )

0 1 1 2 2

dove

ρ φ ρ φ

= =

1 1 0 1 12

ρ φ ρ ρ φ

= +φ = +φ

2 1 1 2 0 2

da cui segue che 2

2a 2a 12 22

γ σ /(1− φ ρ ρ /(1− φ φ

= +φ ) =σ +φ +φ ) .

0 1 1 2 2 1 2

Inoltre 13

ρ φ ρ ρ φ φ

= +φ = +φ +φ

3 1 2 2 1 1 2 2

ed in generale

ρ φ ρ ρ

= +φ .

k 1 k-1 2 k-2 φ

La funzione di autocorrelazione parziale =det Q /det P , per k=1, è data

kk (k) (k)

φ

ρ ρ 1 1

0 1 φ φ φ

+

ρ ρ 2 2

φ ; φ φ φ

1

da =ρ =φ per k=2, = / 1-φ ; per k>2, 0.

= =

1 2

1 2

11 1 1 22 2 1 kk

ρ ρ φ

1

0 1 1

ρ ρ φ 1

1 0 1 43

Si disegnino le funzioni di autocorrelazione globale e parziale di

Esercizio. φ φ

un processo AR(2) e la sua funzione di densità spettrale per valori di e

1 2

che soddisfino le condizioni di stazionarietà. Si commentino tutti i grafici.

Rappresentazione MA(∞) di un processo AR(2)

Al pari di un processo AR(1) - e in generale di un processo AR(p) - un

processo AR(2) stazionario può essere rappresentato in forma MA(∞). Infatti

2 2 -1

− φ ⇒ − φ

(1-φ B B ) Z = Z = (1-φ B B )

a a

1 2 t t t 1 2 t

2 -1

− φ

e dal momento che (1-φ B B ) è un polinomio infinito, esso può essere

1 2 2

+ ψ

rappresentato come 1+ψ B B +… . Allora si ha che

1 2

2 2

− φ + ψ

(1-φ B B )(1+ψ B B +…) = 1 ossia

1 2 1 2

2 2 3 2 3 4

+ ψ ψ φ ψ φ φ ψ φ ψ

1+ψ B B +… -φ B - B - B - B - B +… = 1 da cui

1 2 1 1 1 2 2 2 1 2 2

2 2 3 2 3 4

+ ψ φ ψ φ ψ φ φ ψ φ ψ

1+ψ B B +… -φ B- B - B -…- B - B - B +… = 1

1 2 1 1 1 1 2 2 2 1 2 2

2 2 3 2 3 4

+ ψ ψ φ ψ φ φ ψ φ ψ

1+(ψ B B +… -φ B-φ B - B -…- B - B - B +…) = 1

1 2 1 1 1 1 2 2 2 1 2 2

2

ψ φ

1+ (ψ -φ )B + (ψ -φ - ) B +…= 1 da cui segue che

1 1 2 1 1 2

⇒ ψ φ

(ψ -φ )=0 =

1 1 1 1 12

ψ φ ⇒ ψ φ ψ φ φ φ

(ψ -φ - ) = 0 = + = +

2 1 1 2 2 1 1 2 2

… Σ φ ψ

ψ = dove in questo caso p=2.

j k=1,…,min(p,j) k j-k 44

Questa rappresentazione è utile per il calcolo della varianza dell’errore di

previsione da processi autoregressivi di ordine finito. 45

PROCESSI ARMA(p,q)

Una rappresentazione parsimoniosa di un processo lineare è data dai

Ψ(B)

processi ARMA(p,q), dove il polinomio viene approssimato attraverso il

θ ∼ARMA(p,q)

rapporto tra un polinomio (B) ed un polinomio, ossia {Z } se

q t t∈T

/ φ

Z = [θ (B) (B)] a

t q p t

da cui φ θ

(B) Z = (B) a

p t q t

φ θ

2 p. 2 q.

dove (B) = 1-φ B-φ B - … -φ B , (B) = 1-θ B-θ B - … -θ B e

p 1 2 p q 1 2 q

∼wn(0,σ a2

{a } ).

t t∈T

In altri termini, Z si esprime come una combinazione lineare finita di p

t

variabili ritardate Z ,…, Z e q variabili presenti e passate di un processo

t-1 t-p

white noise.

φ ∼wn(0,σ a2

Z = Z +φ Z + … +φ Z + a -θ a -θ a - … -θ a con {a } )

t 1 t-1 2 t-2 p t-p t 1 t-1 2 t-2 q t-q t t∈T

/ φ Ψ(B)

Il polinomio finito [θ (B) (B)] che approssima il polinomio infinito è di

q p

grado q/p.

Proprietà e momenti dei processi ARMA(p,q)

Dalla struttura moltiplicativa dei processi AR(p) e MA(q) che descrivono i

processi ARMA(p,q) segue che essi sono stazionari se è stazionario il

polinomio autoregressivo e sono invertibili se è invertibile la componente

46

φ

media mobile ossia se le radici delle equazioni caratteristiche (B)=0 e

p

θ (B)=0 sono tutte in modulo maggiori di uno.

q

Media di un processo ARMA(p,q) stazionario φ φ

E[Z ] = E[φ Z +φ Z + … +φ Z + a -θ a -θ a - … -θ a ]= E[Z ] +

t 1 t-1 2 t-2 p t-p t 1 t-1 2 t-2 q t-q 1 t-1 2

E[Z ] + … +φ E[Z ] = 0 per la condizione di stazionarietà per cui la media

t-2 p t-p

del processo è costante rispetto al tempo.

Funzioni di autocovarianza e autocorrelazione di un processo

ARMA(p,q) stazionario

Cov[Z , Z ] = E[Z Z ] = E[Z (φ Z +φ Z + … +φ Z + a -θ a -θ a

t t-k t t-k t 1 t-k-1 2 t- k-2 p t- k-p t-k 1 t-k-1 2 t-k-2

- … -θ a )] dove

q t-k-q σ a2

E[Z a ] = , se k=0

t t-k = 0, se k>q

γ

= (Z,a) se k≤q

k

da cui segue che, per k>q:

γ φ γ γ γ

= +φ + … +φ

k 1 k-1 2 k-2 p k-p

e, per 0≤k≤q:

γ φ γ γ γ γ γ γ γ

= +φ + … +φ + (Z,a) -θ (Z,a) -θ (Z,a) - … -θ (Z,a)

k 1 k-1 2 k-2 p k-p k 1 k-1 2 k-2 q k-q

γ ρ

ossia dopo i primi q ritardi il comportamento di e dunque di è uguale a

k k

quello di un processo AR(p). Si dice che la funzione di autocorrelazione

globale di un processo ARMA(p,q), che non si annulla mai, è dominata dalla

47


PAGINE

70

PESO

422.51 KB

AUTORE

flaviael

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in economia e commercio
SSD:
Università: Firenze - Unifi
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher flaviael di informazioni apprese con la frequenza delle lezioni di Statistica economica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Firenze - Unifi o del prof Buzzigoli Lucia.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Statistica economica

Statistica economica - i modelli di regressione
Dispensa
Statistica economica - analisi delle serie storiche
Appunto
Statistica economica - serie storiche
Appunto
Statistica economica - Appunti
Appunto