Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

Serie Storiche e Processi Stocastici

Introduzione

Desiderando introdurre intuitivamente il concetto di serie storica basta fare riferimento a

qualsiasi fenomeno misurabile che varia nel tempo e la cui registrazione costituisce, appunto, la

serie storica. Tale successione di dati rappresenta una informazione statistica sulla quale potremmo

avere interesse, oltre che nel descrivere, anche nell’inferire (ovvero all’applicare gli strumenti

propri dell’analisi statistica con scopi di previsione).

Più precisamente, per serie storica o serie temporale intendiamo una successione di

osservazioni ordinate logicamente secondo una variabile t, la quale nella maggior parte dei casi

rappresenta il tempo. Risulta quindi di interesse lo studio della dinamica temporale di tale serie

(analisi univariata) e delle eventuali connessioni con altre serie storiche ad essa collegate (analisi

multivariata). Confluiscono in questa analisi gli strumenti e i contributi della statistica, del calcolo

della probabilità, dell’econometria e dell’analisi matematica.

Per questa trattazione le nozioni richieste in questi campi sono quelle di base di normali corsi

universitari di analisi matematica, statistica descrittiva e inferenziale e qualche conoscenza di

calcolo delle probabilità, principalmente con riguardo alle variabili casuali.

Volendo fare un primo banale esempio di serie storica si può considerare la successione

=

t 1,2,...,10

{ X } dei prezzi di un titolo quotato in borsa nel periodo ; questo risulterà

t = quotazioni, e ne potrà seguire

dall’osservazione e dalla registrazione di un totale di n 10

un’opportuna rappresentazione grafica.

= =

x ( x , x ,..., x ) (8.5, 10.3, 9.6, 8.7, 11.2, 9.9, 7.9, 10, 9, 11.1)

1 2 10

Passiamo ora a definire la serie storica da una angolazione differente. Per fare questo ci

serviremo della nozione di processo stocastico, uno strumento probabilistico ampiamente impiegato

in molteplici ambiti, dalla fisica alla finanza, dall’economia al controllo statistico della qualità, e in

molti altri campi.

Definizione: Un processo stocastico X (detto anche processo aleatorio e talvolta indicato con

t

X ( t ) t appartenente ad un

) è una famiglia di variabili casuali descritte da un parametro

insieme parametrico T. 1

Serie Storiche e Processi Stocastici

Cosa significa tutto questo? Significa che un processo stocastico è una successione di

t T , solitamente identificato con il tempo. La

variabili aleatorie ordinate secondo un parametro

conoscenza di un processo stocastico equivale alla conoscenza della distribuzione di probabilità

multipla (multivariata) per qualsiasi sottoinsieme di T e per qualsiasi valore delle variabili casuali.

Occorre caratterizzare però ulteriormente questa nozione di processo stocastico; per fare

questo introduciamo delle distinzioni. Parleremo di processo stocastico continuo qualora le variabili

casuali che lo compongono siano di natura continua, di processo stocastico discreto in caso

contrario; distingueremo inoltre fra processi stocastici a tempo continuo e a tempo discreto, nei casi,

rispettivamente, che il parametro abbia supporto continuo o discreto.

t T

Esempio: sia X un processo stocastico che descrive le rilevazioni negli istanti temporali

t

∈ =

t T {1,2,3,...} di una qualche grandezza fisica e le cui realizzazioni siano

caratterizzate da leggi di distribuzione gaussiane. Allora il processo in esame sarà da

definirsi come processo stocastico continuo a tempo discreto.

{ X , X ,...}

Un tale processo è quindi la famiglia di variabili casuali , per la cui conoscenza

1 2

occorre specificare le funzioni di densità congiunte di ciascuna combinazione di esse. Formalmente

( X , X ,..., X )

un processo X è noto se è nota la funzione di densità per ogni k e per ogni k-pla

t t t

t 1 2 k

di valori di variabili casuali (d’ora in poi v.c.). Da questo si può già intuire l’estrema

( t , t ,..., t )

1 2 k

complicazione dello studio di un processo stocastico nella sua generalità, e in particolare la pratica

impossibilità di inferire direttamente su di esso. X possiamo osservare che, per

Volendo descrivere meglio la struttura probabilistica di t

=

esempio, fissando , si ottiene la v.c. X , che possiede una sua propria funzione di densità di

t 3 3

probabilità (nel caso continuo, di massa di probabilità nel caso discreto) che sarà correlata oppure

no alle altre, e così via. Su X possiamo effettuare un esperimento e rilevare dei valori appartenenti

3

al suo campo di variazione. X (ovvero

Estendendo a tutto il processo, se fissiamo una prova da effettuare su t

osserviamo la successione dei risultati campionari x , x ,... ) otterremo una successione di valori,

1 2

funzione della variabile t, chiamata realizzazione o traiettoria del processo. Risulta evidente che,

dato un processo X , esistono infinite possibili realizzazioni che sono precisamente tutte quelle

t

osservabili ripetendo indefinitamente l’esperimento. Segue un esempio grafico di due realizzazioni

campionarie dal medesimo processo. 2

Serie Storiche e Processi Stocastici

Infine, se in X fissiamo t e contemporaneamente fissiamo la prova sperimentale (per

t

=

esempio fissiamo ed osserviamo il valore risultante per X ) otteniamo, ovviamente, un

t 3 3

numero reale: cioè il valore realizzato per la v.c. fissata, ovvero il valore della realizzazione al

tempo t fissato. =

x t N

Possiamo quindi introdurre a questo punto l’intendimento di serie storica { , 1,2,..., }

t

come una parte finita di una realizzazione di un processo stocastico X .

t

Tale definizione concorda con quella fornita nell’introduzione di serie storica come

“successione di osservazioni ordinate logicamente secondo una variabile t” e qualifica inoltre in

senso probabilistico la natura dei problemi che ci proponiamo di affrontare. Per esempio la

= +

t N 1 note che siano le osservazioni

previsione di un valore del fenomeno in esame al tempo

=

fino a diventa uno specifico problema di Calcolo delle Probabilità. Cioè: qual è la probabilità

t N

X assuma un determinato valore (e qui entra, ad esempio, la teoria dei test statistici)

che la v.c. +

N 1

se su tale variabile si hanno informazioni derivate dall’insieme di v.c. ( X , X ,..., X ) che hanno

1 2 N

generato la realizzazione finita ( x , x ,..., x ) .

1 2 N

Si noti d’altro canto che una simile definizione mette in luce anche la limitazione delle

informazioni sul processo le quali sono, in generale, desumibili dalla conoscenza della serie storica.

Difatti essa non è altro che una parte finita di una singola realizzazione del processo; ci troviamo

quindi a lavorare non solo con un campione unico della famiglia delle v.c. che caratterizzano il

=

t 1,2,..., N

processo, ma si tratta anche di un campione troncato, poiché si osserva solo per . Tutto

questo impone quindi una limitazione della classe dei processi stocastici, perché solo per una parte

più ristretta di essi sarà possibile dedurre informazioni “consistenti” dalle realizzazioni finite di cui

disponiamo nelle applicazioni reali.

Passiamo ora ad analizzare in modo più formale i processi stocastici e le loro

caratterizzazioni fondamentali. 3

Serie Storiche e Processi Stocastici

Processi Stocastici

Rifacendoci alla definizione presentata nell’introduzione di processo stocastico, andiamo a

fornirne ora una sorta di classificazione, sulla base delle v.c. componenti un processo e dei loro

legami.

Una prima distinzione può essere fatta con riguardo all’indipendenza o meno delle v.c.

componenti il processo. Tale stato difficilmente si riscontra nella realtà, l’unico processo a

componenti incorrelate che tratteremo sarà il processo definito White Noise (rumore bianco) di

σ 2 (cioè non dipendente da t). In seguito verrà indicato con

valor medio nullo e varianza costante A

σ

∼ 2

A WN (0, ) . Un processo stocastico WN è quindi caratterizzato come segue:

e siglato con

A t A

t =

E ( A ) 0

t σ

= =

2 2

E ( A ) Var ( A )

t t A ∀ ≠

⎧ 0 t s

= = ⎨

Cov ( A , A ) E ( A , A ) σ =

t s t s 2

⎩ t s

A A , A ,...

Non vengono fatte a priori ipotesi sulla distribuzione di , ma qualora si supponga

1 2

A

che, per ogni t, sia anche una v.c. Normale, allora si parla di Processo White Noise Gaussiano.

t

Poiché l’incorrelazione di v.c. Normali implica l’indipendenza, un processo WN Gaussiano è a

componenti indipendenti.

Una seconda distinzione riguarda la legge di probabilità delle v.c. componenti. Possiamo

infatti ipotizzare una prefissata funzione di densità (nel caso continuo) per tali variabili e definire di

conseguenza il processo risultante (un risultato teorico noto come Teorema di Kolmogorov ci

garantisce che, per ogni n intero, note che siano le densità di probabilità n-variate

f ( x , x ,..., x ; t , t ,..., t ) , il processo stocastico è completamente caratterizzato). L’ipotesi più

1 2 n 1 2 n ( X , X ,..., X )

comune è quella di suppore che le v.c. costituiscano una variabile aleatoria

t t t

1 2 k

( t , t ,..., t ) X si

Multinormale per ogni e per ogni . In tal caso il processo stocastico

k 1

1 2 k t

definisce processo Gaussiano e possiede funzione di densità multivariata

⎧ ⎫

1

− −

N 1 ′

π μ μ

= Σ − − Σ −

1

⎨ ⎬

2 2

f x x x x x

( , ,..., ) (2 ) exp ( ) ( )

x t t t t t

⎩ ⎭

2

1 2 k

μ = Σ = [ Cov ( X , X )

]

( E ( X )) è il vettore dei valori medi e la matrice delle varianze e

dove t t

t t i j

i

covarianze del processo. μ e

E’ interessante soffermarsi sul fatto che un processo Gaussiano è caratterizzato solo da t

Σ e quindi, per esempio, un processo Gaussiano di valore medio 0 per ogni t è caratterizzato

Σ componenti il

esclusivamente dalla matrice delle varianze e covarianze delle v.c. X , X

t t

i j

processo. Questa osservazione è di particolare rilievo perché ci dice che in una classe particolare e

limitata di processi stocastici (quella Gaussiana ad esempio) la conoscenza del processo stocastico

(e quindi di tutte le funzioni del processo) può essere ricondotta alla conoscenza di una particolare

categoria di funzioni (quali possono essere i momenti misti ad esempio), a loro volta stimabili dalle

realizzazioni finite (e quindi dalle serie storiche).

Altre distinzioni possono essere fatte con riguardo al comportamento della successione di

v.c. rispetto al parametro t. Si tratta dunque di andare a vedere se le variabili risultino o meno in un

4

Serie Storiche e Processi Stocastici

qualche equilibrio dinamico rispetto al tempo, in termini di valore atteso, di varianza, di entrambi o

X presenta una distribuzione di equilibrio quando

di altre misure ancora. Se un processo stocastico t

→ ∞

t , ovvero sul piano delle realizzazioni è presente una certa “omogeneità temporale” di natura

stocastica, allora potremo parlare di processo stocastico stazionario.

Più precisamente parleremo di processo stocastico stazionario in senso stretto o forte

( X , X ,..., X ) ( t , t ,..., t )

qualora la distribuzione multivariata delle v.c. non sia funzione di

t t t 1 2 k

1 2 k

per ogni . Formalmente:

k 1 ∀

( X , X ,..., X ) ( X , X ,..., X ) ( t , t ,..., t ) e j

+ + + 1 2

t t t t j t j t j k

1 2 1 2

k k

• = ∼ , e quindi tutte le “marginali” del processo sono

Ne consegue, per , che

k 1 X X +

t t j μ

=

identicamente distribuite, da cui avranno uguale media e varianza E X ,

( )

t

σ

= ∀

2

Var ( X ) , .

t

t

• = ∼

Analogamente, per , ( X , X ) ( X , X ) . La distribuzione congiunta dipende

k 2 + +

t t t j t j

1 2 1 2

solamente da e non dalla traslazione j. E così via crescendo in dimensione.

t t

2 1

Ne consegue che se si considerano le componenti ( , ) , ed esistono i momenti fino al secondo

X X +

t t h

ordine, la covarianza dipende solo da h:

= − − =

( , ) [( ( ))][( ( ))]

Cov X X E X E X X E X

+ + +

t t h t t t h t h

μ μ

= − − =

[( )( )]

E X X +

t t h

γ

= h

=

Per la covarianza coincide con la varianza di X

h 0 t

γ σ

= = = 2

Cov ( X , X ) Var ( X )

t t t

0 = ± ±

h 0, 1, 2,...

Le covarianze di un processo stocastico stazionario in senso stretto sono funzioni di .

γ

La funzione appena introdotta viene denominata funzione di autocovarianza del processo

h

ed è una funzione simmetrica, infatti

γ = = =

Cov ( X , X ) Cov ( X , X )

− − −

h t t h t h t

γ

= =

Cov ( X , X )

+

s s h h

− =

t h s

(posto )

Si definisce analogamente anche una funzione di autocorrelazione come segue:

ρ = ± ±

{ : h 0, 1, 2,...}

h 1

ρ = =

2

Cov ( X , X ) /[

Var ( X )

Var ( X )]

+ +

h t t h t t h

γ γ γ γ γ

= =

1 2

( )

0 0 0

h h

ρ ρ ρ

= =

Ed essendo inoltre 1 ed ancora .

0 h h 5

Serie Storiche e Processi Stocastici

La verifica dell’ipotesi di stazionarietà in senso stretto è nella maggior parte dei casi reali

quasi impossibile, ci si limita dunque spesso a controllare che siano verificate delle condizioni

meno forti e riguardanti solo i momenti fino al secondo ordine (media, varianza, covarianza). Un

processo che rispetti tali proprietà è definito processo stocastico stazionario in senso lato o debole.

Generalmente si considera solo quest’ultimo tipo di stazionarietà nelle applicazioni, riconducendo

la verifica alle proprietà di media, varianza e autocovarianza. In particolare diremo che un processo

è stazionario in senso lato se verifica le seguenti condizioni:

μ

=

1. E ( X ) , per ogni t

t μ σ

− = < +∞

2 2

E ( X ) , per ogni t

2. t μ μ γ

− − =

E [( X )( X )] , per ogni coppia ( t , s )

3. −

t s s t μ al

La prima condizione richiede che il valor medio del processo sia costante e pari a

σ 2 finita e costante al variare di t;

variare di t; la seconda impone che il processo abbia varianza

l’ultima condizione infine implica che per ogni t e s esista la funzione di autocovarianza fra le

X e X . Tutto questo implica l’esistenza dei momenti fino al secondo ordine, ma non

variabili t s

viene imposta alcuna condizione necessaria sulle funzioni di densità multivariate che caratterizzano

X . Da questo discende che mentre la stazionarietà in senso stretto implica, quando

il processo t

esistano i momenti fino al secondo ordine, quella in senso lato, non vale il contrario.

Per quale motivo nella pratica risultano solitamente sufficienti le condizioni deboli di

stazionarietà del processo? Questo è giustificato dal ruolo fondamentale giocato dalla distribuzione

Normale nello studio di molti fenomeni fisici e naturali, per i quali è valido il Teorema del Limite

Centrale: dal momento che, sotto ipotesi di gaussianità, le condizioni di stazionarietà debole sono

sufficienti per avere anche la stazionarietà in senso forte, questo garantisce di potere evitare la

complicata (quando non impossibile) verifica in molteplici situazioni.

Un’altra proprietà che, come le precedenti, un processo può possedere o meno, è

X tramite le v.c. precedenti

l’invertibilità. Si tratta della possibilità di esprimere un processo t

secondo l’ordine logico imposto dal parametro t (e quindi ad esempio precedenti temporalmente);

i

h ( ) A

formalmente significa che esistono una funzione lineare ed un processo WN tali che, per

t

ogni t, sia possibile scrivere = +

X h

( X , X ,...) A

− −

t t 1 t 2 t

<

i

Quindi la funzione h ( ) collega X con le variabili X ( s t ) , e a tale relazione si aggiunge il

t s

processo per rendere la stocasticità il processo (in assenza si tratterebbe né più né meno che di

A

t

una funzione deterministica di t). L’invertibilità diventa particolarmente rilevante nello studio di

alcuni modelli che presenteremo in seguito, ma già da qui si può intuire come possa risultare

importante in un’ottica di previsione, in effetti si tratta della possibilità di regredire il nostro

processo stocastico sui suoi valori passati.

Esiste anche un’altra classificazione che distingue i cosiddetti processi periodici.

X è un processo periodico se esiste un valore s tale che, per ogni t

Formalmente diremo che t = =

Pr{ X X } 1

t t s

6

Serie Storiche e Processi Stocastici

Dunque un processo periodico si ripete identicamente dopo s unità temporali. Se questo s è

= = =

s 1 s 2 s 4

per dati semestrali, per dati

esattamente parti all’anno solare ( per dati annuali,

trimestrali, e così via) allora diremo che il processo periodico è stagionale.

Esistono altri tipi di classificazione di cui non tratteremo, ad eccezione della proprietà di

ergodicità che verrà presentata in seguito. Tutte queste definizioni fanno riferimento ai processi

stocastici e non alle serie storiche, che ne costituiscono solo una realizzazione finita. Si consideri

però che serie storiche stazionarie sono quelle generate da processi stazionari e che processi

gaussiani producono realizzazioni finite che, statisticamente, possono essere ben approssimate da

distribuzioni Normali, e così via. Tranne l’invertibilità (che è soprattutto una caratteristica teorica

che viene resa operativa dal problema della previsione) le condizioni di stazionarietà e Normalità

del processo sono in genere agevolmente deducibili dalle serie storiche osservate.

Verifica di Stazionarietà (debole) di un Processo

La funzione di autocovarianza introdotta precedentemente ci fornisce uno strumento teorico

X sia stazionario o meno. Tale procedura può essere

per verificare se un processo stocastico t

applicata ai dati della serie storica che noi supponiamo essere la realizzazione finita del processo.

La verifica si articola nei seguenti tre passi:

1. Verificare che il valor medio di X non dipenda da t

t

γ

2. Calcolare , ovvero Var ( X ) e verificare che sia finita

0 t

γ =

Verificare che , per h 1,2,... sia una funzione solo di h e non di t

3. h

L’autocovarianza misura il segno e l’intensità del legame lineare che intercorre fra X e

t

X al variare di h; dunque esprime le connessioni fra le v.c. che compongo il processo stocastico

+

t h

al variare della distanza tra di esse.

D’ora in avanti considereremo soddisfatta l’ipotesi di stazionarietà, la quale verrà sottintesa

e non più ovunque specificata.

Nell’ottica di poter effettuare dei confronti fra più processi stocastici risulta più comodo

affidarsi alla funzione di autocorrelazione la quale ha un campo di variazione ben definito, a

differenza di quella di autocovarianza che ha come dominio tutto il campo reale. Richiamiamo

quindi tale funzione già definita in precedenza come

ρ = ± ±

{ : h 0, 1, 2,...}

h Cov ( X , X )

ρ = =

+

t t h

h Var ( X )

Var ( X )

+

t t h

γ γ

= =

h h

γ

γ γ 0

0 0 7

Serie Storiche e Processi Stocastici

Questa funzione possiede proprietà notevoli, le più importanti delle quali sono:

ρ = 1

1. 0 ρ

γ

Si tratta infatti di fare il rapporto tra e sé stesso, inoltre è il coefficiente di

0

0

correlazione di X con sé stesso.

t

ρ ρ

= =

2. , per ogni h 0,1,2,...

h h γ γ

=

Difatti, come dimostrato in precedenza, per la simmetria della covarianza.

h h

ρ ≤ =

1

3. , per ogni h 0,1,2,...

h −

Da un punto di vista statistico, sappiamo che la correlazione è definita nel dominio [ 1,1] .

ρ ρ

+ = =

( aX b ) ( X ) h 0,1,2,... ( a , b )

, per ogni e per qualsiasi coppia reale

4. h t h t γ

+ + = =

2 2

Questo poiché essendo per le

Cov ( aX b , aX b ) a Cov ( X , X ) a ( X )

+ +

t t h t t h h t

γ

+ = =

2 2

proprietà della covarianza, e dal momento che segue la

Var ( aX b ) a Var ( X ) a ( X )

0

t t t

proprietà di cui sopra.

5. La matrice di Toeplitz di ordine m associata alla funzione di autocorrelazione di un

processo stazionario è definita positiva. ρ

Ricordiamo brevemente che la matrice di Toeplitz di ordine m, associata a , è definita per

h

=

m 1,2,3,...

ogni come ρ ρ ρ

⎡ ⎤

1 ... −

1 2 m 1

⎢ ⎥

ρ ρ ρ

1 ...

⎢ ⎥

1 1 m 2

ρ ρ ρ

⎢ ⎥

1 ... − ρ

= = =

2 1 m 3

⎢ ⎥

P i j m

[ ], ( , ) 1,2,...,

( m ) i j

. . . ... .

⎢ ⎥

⎢ ⎥

. . . ... .

⎢ ⎥

ρ ρ ρ

⎢ ⎥

⎣ ⎦

... 1

− − −

m 1 m 2 m 3

Si tratta quindi di una matrice simmetrica contenente i valori della funzione di

autocorrelazione fino all’ordine .

m 1

Commentiamo brevemente queste proprietà: la 1. e la 3. affermano che la funzione di

=

h 0

autocorrelazione è normalizzata ad 1 e che questo massimo è raggiunto per . La 2. mostra

ρ è simmetrica, per cui la sua analisi viene sempre intrapresa per valori di h positivi. La

che h

proprietà 4. esplicita che l’autocorrelazione è invariante per traslazione e cambiamento di scala,

X può essere studiato sotto l’unità di misura di volta in volta più

per cui un processo t 8

Serie Storiche e Processi Stocastici

conveniente. La 5. enuncia una serie di condizioni necessarie e sufficienti affinché una

ρ ρ ρ

{1, , ,..., ,...} sia effettivamente la funzione di autocorrelazione di un processo

successione 1 2 m ρ

stazionario. In altri termini, mentre è necessario che sia verificata la 3. per ogni h affinché h

sia una funzione di autocorrelazione, solo la condizione che la matrice di Toeplitz sia definita

X che possegga

positiva per ogni m garantisce che esista un processo stazionario t

ρ =

{ , 0,1,2,...}

h come propria funzione di autocorrelazione. Come è noto una matrice è

h

definita positiva se e solo se tutti i minori principali di qualsiasi ordine sono positivi; svolgendo

=

m 1,2

P non risultano particolari

i calcoli sulla generica matrice definita sopra si nota per

( )

m

ρ ≥

m 3

limitazioni sulla funzione , mentre invece per discendono condizioni particolarmente

h

restrittive. In effetti = >

P 1 0

(1) ρ

1 ρ ρ

= = − > ⇔ − < <

1 2

P 1 0 1 1

ρ

(2) 1 1

1

1 ρ ρ

1 1 2

ρ ρ ρ ρ ρ >

= = − + − 2

P 1 (1 )(1 2 ) 0

(3) 1 1 2 2 1

ρ ρ 1

2 1 ρ

− < <

⎧ 1 1

⇔⎨ 2

ρ ρ

> −

2

⎩ 2 1

2 1

> =

P 0, m 4,5,... . Si nota quindi subito come, mentre per i primi due

E così via per ( m ) =

ordini le condizioni sono banali o ricalcano altre proprietà, già da la questione si fa più

m 3

complicata. La soluzione della disuguaglianza porta ad un vincolo ben preciso, che restringe in

ρ (per essere precisi lo restringe

modo consistente lo spazio di definizione della funzione h

esattamente da un’area di definizione pari a 4 ad una di 10/3, riducendolo quindi di 1/6; per

ρ ρ

= =

( x , y ) ( , ) le condizioni per e

rendersene conto basti disegnare negli assi cartesiani m 2

2 1

= , ne risulterà un quadrato di lato 2 avente baricentro nell’origine ed una parabola di vertice

m 3

(0, 1) che porta l’area di definizione a coincidere con la sua intersezione con il quadrato.

ρ

ρ >

= = , allora 0 (poiché

Per fare un esempio numerico ed intuitivo, se 1 2 0,7071

1 2

( ) 2

ρ ρ

> − = − = − =

= 2

2 1 2 1 2 1 2 2 1 0

dalle condizioni per risulta che dovrà aversi ).

m 3 2 1

Questo è senz’altro notevole ma risulta comunque ragionevole con riguardo all’aspettativa che

X e X (a distanza di una unità temporale l’una dall’altra, o 1 lag) è

se la correlazione fra +

t t 1 X e X

70,71%

così elevata (circa ) risulta ragionevole pensare che la correlazione fra +

t t 2

(distanti 2 lags) non può essere negativa; questo perché il processo in esame possiede quella

omogeneità temporale che abbiamo identificato come la stazionarietà.

Portiamo ora un semplice esercizio che serva ad applicare le nozioni finora acquisite. Sarà

dato un processo stocastico e dovremo verificarne la stazionarietà e costruirne la matrice di

Toeplitz. 9

Serie Storiche e Processi Stocastici

Esempio σ

Α Β 2

e due v.c. Normali, indipendenti, di media zero e varianze, rispettivamente,

Siano Α

σ 2

e . Definiamo il processo stocastico

Β θ θ

= Α + Β =

X cos t sin t , t 1,2,...

t

θ π

< < è un numero reale fissato. Trattandosi di una combinazione lineare di due v.c.

In cui 0 2

Normali e indipendenti, il processo X è ben definito e si potrebbe calcolarne la generale

t

funzione di densità multivariata. Calcoliamone però i primi momenti che, dalla definizione del

Α Β

e .

processo, risulteranno funzione dei momenti di

Ricordiamo che, per ipotesi, vale σ σ

Α = Β = Α = Β =

2 2

E ( ) E ( ) 0 ; Var ( ) ; Var ( )

Α Β

Α Β = Α Β =

Cov ( , ) E ( , ) 0

Avremo quindi per il processo che θ θ

= ⋅ Α + ⋅ Β = ∀

E ( X ) cos t E ( ) sin t E ( ) 0 t

t θ σ θ σ

= ⋅ + ⋅ ∀

2 2 2 2

Var ( X ) cos t sin t t

Α Β

t θ θ θ θ

= Α + Β Α + + Β + =

Cov

( X , X ) E

[( cos t sin t )( cos ( t h ) sin ( t h ))]

+

t t h θ θ θ θ =

= ⋅ + ⋅ Α + ⋅ + ⋅ Β

2 2

cos t cos ( t h ) E ( ) sin t sin (

t h ) E ( )

σ θ θ σ θ θ

= ⋅ + + ⋅ +

2 2

cos t cos ( t h ) sin t sin (

t h )

Α Β

Come si vede il valor medio è nullo e quindi costante ma varianza e autocovarianza variano

X è non stazionario.

al variare di t, pertanto, in generale, il processo t σ

Α = Β = < +∞

2

Var ( ) Var ( ) allora le espressioni precedenti

Se tuttavia supponessimo che

diventerebbero σ θ θ σ

= + = < +∞ ∀

2 2 2 2

Var ( X ) (cos t sin t ) t

t σ θ θ θ θ

= ⋅ + + ⋅ + =

2

Cov ( X , X ) [cos t cos ( t h ) sin t sin ( t h )]

+

t t h σ θ σ θ

= + − = ∀

2 2

cos[ ( t k t )] cos h t

Α = Β

In definitiva, se Var ( ) Var ( ) il nostro processo risulta essere stazionario, dal momento

che valgono la condizione 1. di costanza della media, la 2. di costanza e finitezza della varianza

+ dipende solamente dal lag e

quale che sia t ed infine la 3., ovvero l’autocovarianza tra e

t t h

non dall’istante temporale t.

Sempre sotto le ipotesi suddette la funzione di autocorrelazione del processo risulterà essere

definita da 10

Serie Storiche e Processi Stocastici

γ σ θ

= 2 cos h

h γ σ θ

2 cos h

ρ θ

⇒ = = = =

h cos h , h 0,1,2,3,...

γ σ

h 2

0

La funzione è esattamente periodica e risulta evidente come non sia funzione di t ma solo

del lag h.

A conferma della proprietà 5. riguardante la matrice di Toeplitz si osservi che

= >

1 0

P

(1) θ

1 cos θ θ θ

= = − = > ∀

2 2

1 cos sin 0

P θ

(2) cos 1 θ θ

1 cos cos2

θ θ θ θ θ

= = − + − >

2

cos 1 cos (1 cos2 )(1 cos2 2cos ) 0

P

(3) θ θ

cos2 cos 1

θ

− >

1 cos2 0

⇔⎨ θ θ

+ − >

2

1 cos2 2cos 0

θ θ θ

= −

2

cos2 2cos 1

Dal momento che l’ultimo sistema è verificato per ogni appartenente

θ π

< < .

all’insieme di definizione che abbiamo fornito, ovvero 0 2

Stima della Funzione di Autocorrelazione e Concetto di Ergodicità

ρ

Dal momento che la funzione di autocorrelazione è una misura della struttura interna del

h

X assume particolare importanza la sua stima statistica a partire da una

processo stazionario t =

x t N . Una considerazione va fatta

, 1,2,..., }

realizzazione finita, ovvero la nostra serie storica { t

prima di considerare i metodi di stima: i dati di cui disponiamo costituiscono una informazione

( X , X ,..., X ) e non sulla generica X che definisce, al variare di t, il

congiunta sulle v.c. N t

1 2

processo. La serie storica è quindi una successione ordinata di N campioni di dimensione

unitaria su N distinte v.c. le quali, generalmente, fra loro non sono indipendenti né somiglianti.

La complicazione di stima dei parametri di un processo si presenta quindi già nello studio dei

primi momenti; si immagini cosa può succedere passando a intere funzioni dei parametri (quali

ad esempio, appunto, l’autocorrelazione). Le procedure classiche di stima da un campione non

sono quindi generalmente utilizzabili, ma risulta d’altra parte intuitivo supporre che, una volta

verificata la stazionarietà del processo in esame, sia ragionevole aspettarsi che si possa

pervenire ad utili informazioni sui parametri delle v.c. componenti il processo tramite le

informazioni contenute nella serie storica, e questo in virtù della “omogeneità temporale” che

identifichiamo con la stazionarietà, che garantisce una certa qual “stabilità” nei legami

temporali fra le variabili.

L’esigenza di poter giungere a risultati utili disponendo di un insieme limitato di

informazioni (la nostra serie storica) ha portato alla definizione dell’importantissimo concetto di

ergodicità, termine originario delle scienze fisiche che nello studio dei processi stocastici

assume il seguente significato: 11

Serie Storiche e Processi Stocastici

Definizione: Un processo stocastico X è ergodico rispetto ad un parametro se la stima

t

temporale del parametro, ottenuta da una serie storica, converge in media

quadratica a quel parametro. ϕ

ϕ

ˆ

Formalmente, dato X stimatore del vero parametro e funzione dei dati della

( ) =

T T N

1,2,...,

serie storica, diremo che la condizione di ergodicità è verificata qualora

ϕ ϕ

− =

2

ˆ

lim [ ( ) ] 0

E X T

→∞

T

Cos’è dunque l’ergodicità? Può essere intesa come una condizione che limita la memoria del

processo: un processo non ergodico è tale da avere caratteristiche di persistenza così accentuate

da far sì che un segmento del processo (nel nostro caso la serie storica) per quanto lungo, sia

insufficiente a dire alcunché sulle sue caratteristiche distributive. In un processo ergodico, al

contrario, la memoria del processo può essere intesa debole su lunghi orizzonti e all’aumentare

dell’ampiezza del campione aumenta in modo significativo anche l’informazione in nostro

possesso. La considerazione che possiamo fare è quella di reputare virtualmente indipendenti

eventi distanti tra di loro sull’asse temporale in caso di ergodicità: sotto una simile ipotesi

possiamo supporre possibile l’osservazione di una parte consistente delle traiettorie che il

processo può generare posta una evidenza campionaria sufficientemente grande. Formalmente

la considerazione enunciata poco fa sull’incorrelazione di eventi distanti nel tempo si traduce

nella seguente condizione necessaria e sufficiente affinché il processo sia ergodico rispetto al

valor medio è che la sua funzione di autocorrelazione tenda a zero al crescere del lag h.

Esiste inoltre un teorema (detto appunto ergodico) che garantisce che se un processo è ergodico

l’osservazione di una sua realizzazione “abbastanza” lunga è equivalente, per i fini inferenziali,

all’osservazione di un grande numero di osservazioni.

In linea generale possiamo dire che solo per processi ergodici e stazionari (nota: la

stazionarietà non implica l’ergodicità! ne è una prova l’esempio di prima, in cui il processo era

sì stazionario, ma la sua funzione di autocorrelazione era periodica e non tendeva a zero al

divergere del lag) può porsi correttamente il problema dell’inferenza statistica sulle serie

storiche. L’ergodicità garantisce che dall’unica informazione disponibile, appunto le

osservazioni che compongono la nostra serie storica, sarà possibile risalire a stime consistenti in

X .

senso statistico del processo stazionario t

D’ora in avanti supporremo che i processi con cui lavoreremo siano stazionari ed erodici

fino almeno ai momenti del secondo ordine, di modo da dare un senso all’approccio

inferenziale. ρ γ γ

=

Passiamo dunque alla stima vera a propria della funzione di autocorrelazione . Si

h h 0

γ =

h e di lì ricavare

, 0,1,2,...

tratta semplicemente di trovare uno stimatore soddisfacente per h

ρ μ =

. Premettiamo che per stimare il valor medio del processo E ( X ) impiegheremo la

h t

N

=

x X N

media campionaria , il quale, come è noto, è non distorno, consistente ed

t

=

t 1

asintoticamente normale. Si noti però che la varianza di tale stimatore, che solitamente vale

σ 2 , viene ad essere alterata da un fattore moltiplicativo a causa della correlazione esistente

N .

fra le X t μ

= − , il quale possiede

Per comodità di notazione considereremo il processo scarto Z X

t t ( trattandosi di una

media nulla e la stessa varianza, autocovarianza e autocorrelazione di X t

12

Serie Storiche e Processi Stocastici

semplice traslazione). In letteratura sono stati proposti diversi stimatori dell’autocovarianza, fra

i quali citiamo N

1 ∑

γ =

(1)

ˆ Z Z +

h t t h

N =

t 1 −

N h

1 ∑

γ =

(2)

ˆ Z Z +

h t t h

N h =

t 1

N h

1 ∑

γ =

(3)

ˆ Z Z +

h t t h

N =

t 1

Lo stimatore per l’autocorrelazione sarà in ogni caso

γ

ˆ

ρ = =

i h i ,3

, 1,2

γ

i h ˆ

i 0

γ (1)

ˆ

Lo stimatore è dotato di notevoli proprietà teoriche, ma implica una condizione molto

h unità

restrittiva per il suo utilizzo, ovvero il processo deve ripetersi esattamente dopo N

= = =

, ,..., ,... .

temporali, cioè deve essere del tipo Z Z Z Z Z Z

+ + +

N 1 1 N 2 2 N i i elevato rispetto a vale

Per quanto riguarda gli altri due stimatori si osservi che per N k

γ γ

(3) (2)

ˆ ˆ , dunque la differenza risulta evidente solo nei piccoli campioni. E’ stato dimostrato

h h γ γ γ

(2) (3)

ˆ ˆ

inoltre che è stimatore corretto per ma , pur essendo distorto, garantisce un errore

h h

h

γ (2)

ˆ

quadratico medio inferiore a quello di , risultando dunque più efficiente e, soprattutto,

h

ˆ

verifica la condizione per la quale , ovvero la matrice di Toeplitz stimata, è definita

P

( m ) ˆ

positiva, proprio come ; questo non avviene necessariamente costruendo con lo

P P

( m ) ( m )

γ γ

(2) (3)

ˆ ˆ

. Per questi motivi di norma la preferenza cade su e dunque si stima la

stimatore h h

funzione di autocorrelazione nel modo seguente:

− −

N h N h

∑ ∑ − −

Z Z ( X x )( X x )

γ + +

t t h t t h

(3)

ˆ

ρ = = = =

= =

h 1 1

t t

ˆ , h 0,1,2

,...

γ

h N N

(3)

ˆ ∑ ∑ −

2 2

0 Z X x

( )

t t

= =

t t

1 1

ρ ρ

=

ˆ ˆ

Lo stimatore è simmetrico ( ) e pertanto la stima viene effettuata solo per positivo.

h

h h

In pratica come si procede? Nota la serie storica ( , ,..., ) si costruisce la serie degli

x x x

1 2 N

= − = − = −

, , ..., (dove è la usuale media campionaria) quindi si

scarti z x x z x x z x x x

1 1 2 2 N N

calcola −

N h

1 ∑

γ = =

ˆ , 0,1,2,...

zz h

+

h t t h

N =

t 1 13

Serie Storiche e Processi Stocastici

fino ad un massimo che l’esperienza pone pari a o al suo intero successivo. Fatto

lag N 4

ρ γ γ

= =

ˆ ˆ ˆ per e si riportano su di un grafico

questo si costruiscono i rapporti h 0,1,2,..., N 4

h h 0

, solitamente a barre verticali per ciascun per sottolineare che si

denominato correlogramma h

tratta di stime in punti discreti; talvolta si uniscono i punti della funzione di autocorrelazione per

evidenziarne l’andamento complessivo.

Esempio =

x (8.5, 10.3, 9.6, 8.7, 11.2, 9.9, 7.9, 10, 9, 11.1, 10.4)

Sia la nostra serie storica il cui

t

grafico è illustrato di qui di seguito = (tratteggiata nel grafico). La serie degli scarti è

e la quale media campionaria vale x 9.79

= − − − . Dal momento che

( 1.35, 0.45, 0.25, 1.15, 1.35, 0.05, -1.95, 1.05, 1.25, 0.55)

z

t ρ =

→ = ˆ h 0,1,2,3

dunque avrà senso calcolare solo per . Dunque

N=10 N 4 2.5 h

N 10

1 1

∑ ∑

γ = = =

2 2

ˆ z z

0 i i

10

N = =

i 1 t 1

+ + + + +

⎛ ⎞

1.8225 0.2025 0.0625 1.3225 1.8225

1

= =

⎜ ⎟

+ + + + + +

⎝ ⎠

0.0025 3.8025 1.1025 1.5625 0.3025

10

1 ( )

= =

12.005 1.2

10 −

N 1 9

1 1

∑ ∑

γ = = =

ˆ z z z z

+ +

1 t t 1 t t 1

N 10

= =

i 1 t 1

− − + − + +

⎛ ⎞

0.6075 0.1125 0.2875 1.5525 0.0675

1

= =

⎜ ⎟

− − + +

⎝ ⎠

0.0975 2.0475 1.3125 0.6875

10

1 ( )

= − = −

2.0625 0.21

10 14

Serie Storiche e Processi Stocastici

N 2 8

1 1

∑ ∑

γ = = =

ˆ zz z z

+ +

2 t t 2 t t 2

N 10

= =

i 1 t 1

− − − +

⎛ ⎞

0.3375 0.5175 0.3375 0.0575

1

= =

⎜ ⎟

− + − +

⎝ ⎠

2.6325 0.0525 2.4375 0.5775

10

1 ( )

= − = −

5.015 0.5

10 −

N 3 7

1 1

∑ ∑

γ = = =

ˆ z z z z

+

3 t t 3 t 3

N 10

= =

i 1 t 1

+ − + +

⎛ ⎞

1.5525 0.6075 0.0125 2.2425

1

= =

⎜ ⎟

+ + −

⎝ ⎠

1.4175 0.0625 1.0725

10

1 ( )

= =

4.7975 0.48

10

Dunque le stime della funzione di autocorrelazione saranno:

ρ γ γ

= =

ˆ ˆ ˆ 1

0 0 0

ρ γ γ

= = − = −

ˆ ˆ ˆ 0.21 1.2 0.18

1 1 0

ρ γ γ

= = − = −

ˆ ˆ ˆ 0.5 1.2 0.42

2 2 0

ρ γ γ

= = =

ˆ ˆ ˆ 0.48 1.2 0.40

3 3 0 =

Il correlogramma sarà quindi, per i 0,1,2,3 , il seguente:

lags h

Le linee tratteggiate delimitano la regione di confidenza approssimata per l’ipotesi

= = ±

: 2 2 10 0.6325 . In ambiente , ovvero il software

e si ottengono da

H X WN N R

0 t

impiegato per tracciare questi grafici, tale precisazione viene eseguita in automatico nel

momento del calcolo della funzione di autocorrelazione; le bande così ampie, che porterebbero a

così piccolo.

non poter rifiutare l’ipotesi di cui sopra, sono dovute ad un N

15

Serie Storiche e Processi Stocastici

Passiamo ora a parlare di un altro importantissimo strumento dell’analisi dei processi

, il cui ruolo fondamentale risulterà

stazionari, ovvero la funzione di autocorrelazione parziale .

più chiaro nel seguito, quando tratteremo dei cosiddetti modelli autoregressivi

π = ± ±

al , per 0, 1, 2,... ,

Definiamo quindi la funzione di autocorrelazione parziale lag h h

h

e al netto della correlazione esistente fra le v.c.

come la correlazione esistente fra X X +

t t h

e .

“intermedie” tra X X +

t t h

Se la definizione può risultare di non semplicissima comprensione, la forma analitica della

funzione è estremamente semplice: la funzione di autocorrelazione parziale è data dal rapporto

fra due determinanti *

P

π = =

h

( ) h

, 0,1,2,...

h P h

( )

Con ρ ρ ρ

⎡ ⎤

1 ... −

1 2 h 1

⎢ ⎥

ρ ρ ρ

1 ...

⎢ ⎥

− 2

1 1 h

ρ ρ ρ

⎢ ⎥

1 ... −

=⎢ 2 1 h 3 ⎥ ;

P

( h ) . . . ... .

⎢ ⎥

⎢ ⎥

. . . ... .

⎢ ⎥

ρ ρ ρ

⎢ ⎥

⎣ ⎦

... 1

− − −

h 1 h 2 h 3

ρ ρ ρ

⎡ ⎤

1 ...

1 2 1

⎢ ⎥

ρ ρ ρ

1 ...

⎢ ⎥

2

1 1

ρ ρ ρ

⎢ ⎥

1 ...

=⎢ 2 1 3

* ⎥

P

( h ) . . . ... .

⎢ ⎥

⎢ ⎥

. . . ... .

⎢ ⎥

ρ ρ ρ ρ

⎢ ⎥

⎣ ⎦

...

− − −

h 1 h 2 h 3 h

*

, mentre è la stessa matrice alla cui ultima

Dove è la matrice di Toeplitz di ordine

P h P

( )

h h

( )

colonna è stato sostituito il vettore composto dai valori della funzione di autocorrelazione fino al

π π π

=

ρ

. Dalla proprietà di simmetria di discende anche quella di , difatti vale ,

lag h −

h h h

h .

quindi anche in questo caso i calcoli verranno effettuati esclusivamente per valori positivi di h

π = =

1 h 1,2,3

, mentre applicando la definizione per otteniamo:

E’ ovviamente vero che 0 ρ

π ρ

= =

1

1 1

1 ρ

1 1

ρ ρ ρ ρ

− 2

π = =

1 2 2 1

ρ ρ

2 2

1 1

1 1

ρ 1

1 16

Serie Storiche e Processi Stocastici

ρ ρ

1 1 1

ρ ρ

1

1 2 ( ) ( )

ρ ρ ρ ρ ρ ρ

− + + −

ρ ρ ρ 2 2 2

1 2

π = = 3 1 1 1 2 2

2 1 3 ( )( )

ρ ρ ρ ρ ρ

− + −

3 2 2

1 1 1 2

1 2 1 2 1

ρ ρ

1

1 1

ρ ρ 1

2 1

Risultano inoltre univocamente determinabili i valori della funzione di autocorrelazione in

:

funzione delle autocorrelazioni parziali fino allo stesso lag h

ρ π

=

1 1 ( )

ρ π π π

= + −

2 1

2 2 1 2

( )( ) ( ) ( )

ρ π π π π π π π π

= − − + − + −

2

2 2 3

1 1 1 2

3 3 2 1 1 2 1 2 2

E’ possibile (per quanto non immediato) ricavare una forma analitica generale in modo da

π π π

ρ , ,...,

in funzione di e viceversa; tale problema è sempre risolubile, per

esplicitare −

h h 1 1

h

quanto non molto semplice. ρ π

Come si può vedere dalla teoria esposta sino a qui e sono l’una funzione dell’altra:

h h

π non aggiunge nulla sulla conoscenza del processo che non sia già teoricamente deducibile da

h

ρ ; come già accennato l’importanza della funzione di autocorrelazione parziale risulterà

h

evidente più avanti, nell’ambito della stima dei modelli autoregressivi.

Per quanto riguarda la stima della funzione di autocorrelazione parziale il metodo più

ρ , ad esempio tramite lo stimatore introdotto

immediato consiste nel ricavare le stime di h

prima, ed andarle a sostituire all’interno delle matrici definite sopra, di modo da ottenere

ˆ *

P

π ( )

h

= =

ˆ h

, 0,1,2,...

h ˆ

P

( )

h

ˆ ˆ *

e sono, rispettivamente, la matrice di Toeplitz e la stessa modificata di cui già si è

P P

h h

( )

( )

parlato, nelle quali sono stati inseriti i valori stimati della funzione di autocorrelazione.

Analogamente al caso della funzione di autocorrelazione si rappresenta graficamente anche

π ρ

ˆ per lo stesso numero di per cui è stata stimata . Tale grafico viene denominato

lags

h h

.

talvolta come correlogramma parziale

Esempio

Riprendiamo i dati derivati dalla serie storica dell’esempio precedente, per la quale avevamo

= .

già stimato i valori della funzione di autocorrelazione fino al lag h 3

17

Serie Storiche e Processi Stocastici

ρ γ γ

= = − = −

ˆ ˆ ˆ 0.21 1.2 0.18

1 1 0

ρ γ γ

= = − = −

ˆ ˆ ˆ 0.5 1.2 0.42

2 2 0

ρ γ γ

= = =

ˆ ˆ ˆ 0.48 1.2 0.40

3 3 0

Procedendo con i calcoli e sfruttando i risultati presentati in precedenza otteniamo le stime

dell’autocorrelazione parziale:

ρ

ˆ

π ρ

= = = −

1 ˆ

ˆ 0.18

1 1

1 ρ

ˆ

1 1

ρ ρ ρ ρ

− − − −

2 2

ˆ ˆ ˆ 0.42 ( 0.18)

π = = = = −

1 2 2 1

ˆ 0.468

ρ ρ

− − −

2 2 2

ˆ ˆ

1 1 1 ( 0.18)

1 1

ρ

ˆ 1

1 ρ ρ

ˆ ˆ

1 1 1

ρ ρ

ˆ ˆ

1

1 2 ( ) ( )

ρ ρ ρ ρ ρ ρ

− + + −

ρ ρ ρ 2 2 2

ˆ ˆ ˆ ˆ ˆ ˆ

1 2

ˆ ˆ

π =

= = 3 1 1 1 2 2

2 1 3

ˆ ( )( )

ρ ρ ρ ρ ρ

− + −

3 ˆ ˆ 2 2

1 ˆ ˆ ˆ

1 1 2

1 2 1 2 1

ρ ρ

ˆ ˆ

1

1 1

ρ ρ

ˆ ˆ 1

2 1

( ) ( )

− − − − + − − −

2 2 2

0.40 1 ( 0.18) 0.18 ( 0.18) ( 0.42) 2( 0.42)

= = 0.398

( )( )

− − + − − −

2 2

1 ( 0.18) 1 ( 0.42) 2( 0.18)

Come si può notare le stime delle due funzioni sono praticamente coincidenti, a meno di

approssimazioni minime. Nel grafico che segue è riportato il correlogramma parziale del

processo sulla base della serie storica data. 18

Serie Storiche e Processi Stocastici

Anche in questo caso sono presenti i limiti approssimati della regione di confidenza al 95%

H : X WN

per l’ipotesi . La costruzione è analoga a quella relativa alla funzione di

t

0 = = ±

2 2 10 0.6325 intorno allo

autocorrelazione, le bande di confidenza sono poste a N

zero; chiaramente nel nostro caso tale specificazione è superflua, dal momento che la serie

storica che è stata impiegata per l’esercizio è artificiale.

La Classe dei Modelli ARMA

Come si è già visto in precedenza lo scopo dell’analisi delle serie storiche è quella di risalire

ai processi stocastici che si suppone le abbiano generate; operativamente questo si traduce

che garantiscano un accettabile grado di

nell’identificazione e nella stima di modelli statistici bensì se ne

approssimazione della realtà in esame. Dunque dai dati non si perviene al processo

costruisce una descrizione valida sino a prova contraria: una sintesi cioè ottimale solo fino a che

nuovi dati non porteranno a costruire modelli più convincenti. In generale la conoscenza di un

processo a partire dai dati è proibitiva, dunque si ripiega su di un particolare modello: il

processo stocastico genera la serie storica quale sua realizzazione finita, il modello statistico si

adegua alla serie storica secondo criteri di ottimalità e genera dati che sono simulazioni ottenute

dal modello. Nel seguito presenteremo una classe di modelli statistici che trova il suo impiego

. Il passo seguente all’ è

nella descrizione dei processi stocastici, i modelli ARMA identificazione

del modello scelto tramite opportune verifiche di

chiaramente costituito dalla validazione .

ipotesi; una volta assicurata la bontà del modello si può infine passare alla previsione

Il Processo a Media Mobile

Sia un processo come già definito in precedenza e si consideri il seguente

A white noise

t

processo stocastico μ θ

= + +

Y A A −

t t t 1

μ θ ∈ . Questa serie storica è definita , e si

dove , processo a media mobile del primo ordine

MA

(1) . Il termine “media mobile” deriva dal fatto che è costruito da una somma

indica con Y

t

pesata, simile ad una media, dei due più recenti valori di .

A

Il valore atteso di è dato da

Y

t

( ) ( ) ( ) ( )

μ θ μ θ μ

= + + = + + =

E Y E A A E A E A

− −

1 1

t t t t t

dal momento che abbiamo definito come un white noise, e quindi a media nulla per ogni .

A t

t

La varianza di , che coincide chiaramente con la funzione autocovarianza calcolata per un

Y

t

nullo, vale

lag ( )

( ) ( )

μ θ θ θ

2 2

− = + = + + =

2

2 2

E Y E A A E A 2 A A A

− − −

t t t t t t t 1

1 1

σ θ σ

= + + =

2 2 2

0

( )

θ σ γ

= + =

2 2

1 0

19


ACQUISTATO

1 volte

PAGINE

44

PESO

1.30 MB

AUTORE

flaviael

PUBBLICATO

+1 anno fa


DESCRIZIONE APPUNTO

Appunti di Statistica economica sulle serie storiche e sui processi stocastici. Nello specifico gli argomenti trattati sono i seguenti: i processi stocastici, verifica di stazionarietà (debole) di un processo, la stima della funzione di autocorrelazione e il concetto di ergodicità.


DETTAGLI
Corso di laurea: Corso di laurea in economia e commercio
SSD:
Università: Firenze - Unifi
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher flaviael di informazioni apprese con la frequenza delle lezioni di Statistica economica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Firenze - Unifi o del prof Buzzigoli Lucia.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Statistica economica

Statistica economica - i modelli di regressione
Dispensa
Statistica economica - analisi delle serie storiche
Appunto
Statistica economica - Appunti
Appunto
Statistica economica - Appunti
Appunto