Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

TEMI DELLA LEZIONE

1. Richiami alla precedente lezione: elementi generali di

inferenza statistica, definizione di processo stocastico e

serie storica

2. Processi stocastici e inferenza

3. Classificazione dei processi stocastici e condizioni perché

risultino noti

4. Processi stocastici stazionari

5. Processi stocastici invertibili 3

RICHIAMI ALLA PRECEDENTE LEZIONE: ELEMENTI GENERALI DI

INFERENZA STATISTICA

• Una variabile casuale è una variabile che assume diversi valori con

certe probabilità la cui somma è pari a 1: una funzione con dominio

Ω e codominio R (insieme dei numeri reali);

• La funzione di ripartizione di una v.c. F(x) è la probabilità che una

v.c. assuma un valore < x; per una v.c. discreta

per x≤x F ( x

) pr ( X x ) 0

= < =

1 h

per x <x<x p ( x

= i )

h h+1 i 1

=

x>x 1

=

n

• La funzione di ripartizione di una v.c. assolutamente continua è

x

data da F ( x

) Pr(

X x

) p

(

t )

dt

= < = −

• Da cui Pr (x1 ≤ X ≤ x2) = F(x2) – F(x1) 4

RICHIAMI ALLA PRECEDENTE LEZIONE: ELEMENTI GENERALI DI

INFERENZA STATISTICA

• Il problema inferenziale nel caso generale di campionamento da

variabili casuali: data una v.c. X (v.c. generatrice o popolazione) con

una determinata funzione di densità di probabilità p(x;θ) dipendente

da un parametro incognito θ (modelli parametrici), scopo

dell’inferenza è fare affermazioni su θ in base alle osservazioni

campionarie;

• Le n osservazioni campionarie non sono altro che le n realizzazioni

indipendenti della v.c. X;

• L’esempio della media campionaria: al variare di tutti i possibili

n

campioni X nell’ambito dello spazio campionario Х , la v.c. “media

n

campionaria” X assume diverse determinazioni dipendenti

x

dalle determinazioni (x ,x ,….,x ) del campione casuale (campione

1 2 n

casuale realizzato) 5

RICHIAMI ALLA PRECEDENTE LEZIONE: DEFINIZIONE DI PROCESSO

STOCASTICO E SERIE STORICA

• Processo stocastico: insieme di variabili casuali ordinato secondo il

tempo ossia una famiglia di v.c. descritte da un parametro t (tempo)

• Definizione (Piccolo, 1990): dati uno spazio parametrico T e uno

Ω, si definisce processo stocastico una funzione

spazio di probabilità

X(t,ω) finita e a valori reali che, per ogni fissato t T, è una funzione

misurabile di ω e Ω.

• Un processo stocastico è quindi una funzione a valori reali di due

variabili: t, che ordina la famiglia di v.c. e ω, che specifica su Ω il

risultato che si verifica per t fissato.

• Il processo stocastico è una relazione funzionale tra un dominio

costituito dal prodotto cartesiano Tx Ω e un codominio costituito dai

numeri reali R 6

RICHIAMI ALLA PRECEDENTE LEZIONE: DEFINIZIONE DI PROCESSO

STOCASTICO E SERIE STORICA

a) t T variabile e ω Ω variabile: X(t,ω) processo stocastico

b) t T variabile e ω= ω fissato: X(t,ω) singola funzione

∈ 0

matematica di t, detta realizzazione del processo stocastico

c) t=t fissato e ω Ω variabile: X(t,ω) è una funzione

0

misurabile dell’insieme ω Ω ed è quindi una v.c.

d) t=t e ω= ω : X(t,ω) è un numero reale (valore osservato per la

0 0

,ω) quando si è realizzato ω o il valore numerico della

v.c. X(t

0 0

funzione matematica X(t,ω ) calcolata in t=t

0 0

• Serie storica: parte finita di una realizzazione di un processo

stocastico {X(ω,t)} 7

RICHIAMI ALLA PRECEDENTE LEZIONE: DEFINIZIONE DI PROCESSO

STOCASTICO E SERIE STORICA

• Processo stocastico: funzione aleatoria di due argomenti (t є T,

definito nello spazio parametrico T e l’evento ω є Ω definito in uno

spazio probabilistico)

X = {X(ω,t); ω є Ω , t є T}

• Quindi nella serie storica {X } per x=1,2,…,n

t

x è la realizzazione di X(ω,t=1)

1 è la realizzazione di X(ω,t=2)

x 2

x è la realizzazione di X(ω,t=3)

3 è la realizzazione di X(ω,t=n)

x n

• Ognuna delle v.c. suddette può avere una struttura probabilistica

diversa 8

PROCESSI STOCASTICI E INFERENZA

• Nell’inferenza classica abbiamo n osservazioni per risalire ad una

sola v.c. mentre nell’analisi delle serie storiche abbiamo n

osservazioni per n campioni

• È per questa “peculiarità” che, per inferire sul processo generatore

della serie storica osservata, è necessario definire alcune classi di

che presentano determinate proprietà

processi stocastici

• La teoria dei processi stocastici consente di formalizzare una classe

di strutture probabilistiche ampia al punto da permettere

l’interpretazione di buona parte dei fenomeni che si incontrano nella

realtà 9

PROCESSI STOCASTICI E INFERENZA

• La formalizzazione di questa classe di strutture probabilistiche passa

attraverso alcune restrizioni:

1. Stazionarietà

2. Invertibilità

3. Ergodicità

• L’ergodicità è la proprietà che consente di inferire sui momenti

caratteristici di un processo mediante una sola serie storica

10

CLASSIFICAZIONE DEI PROCESSI STOCASTICI E CONDIZIONI PERCHÉ

RISULTINO NOTI

• Una prima classificazione dei processi stocastici dipende dalla natura

di T e Ω:

A) processo discreto a parametro discreto (T e Ω sono entrambi

discreti e numerabili; numero di giorni piovosi in un dato mese in

una certa zona)

B) processo discreto a parametro continuo (le particelle emesse da

una sostanza radioattiva e registrate su un modulo continuo)

C) processo continuo a parametro discreto (la maggior parte dei

fenomeni socio economici)

D) processo continuo a parametro continuo

(elettroencefalogramma) 11

CLASSIFICAZIONE DEI PROCESSI STOCASTICI E CONDIZIONI PERCHÉ

RISULTINO NOTI

• Un processo stocastico, insieme di v.c., è noto se:

A) sono note tutte le funzioni di ripartizione semplici (di ciascuna v.c.)

F (x)

t

B) sono note tutte le funzioni di ripartizioni doppie F , (x ,x )=

t1 t2 1 2

1 2

x x

∫ ∫ f ( X X ) dX dX

t 1

, t 2 t 1 t 2

− ∞

− ∞

C) sono note tutte le funzioni di ripartizione multiple

• L’insieme delle funzioni di ripartizione prima elencate rappresentano

la famiglia delle ripartizioni finite 12

CLASSIFICAZIONE DEI PROCESSI STOCASTICI E CONDIZIONI PERCHÉ

RISULTINO NOTI

• Ma la specificazione di tutte le funzioni di ripartizione che

costituiscono la famiglia delle ripartizioni finite richiede la stima di

un numero enorme di parametri impossibile da effettuare sulla base

della sola realizzazione finita rappresentata dalla serie storica

• In pratica si procede a descrivere il processo stocastico

specificando i momenti di primo e secondo grado delle

distribuzioni congiunte

[momento di ordine si definisce il valore medio della potenza s-

s

esima della v.c. X; momento rispetto all’origine]

[momento centrale di ordine si definisce il valore medio della

s

potenza s-esima della v.c. scarto; momento rispetto alla media] 13

CLASSIFICAZIONE DEI PROCESSI STOCASTICI E CONDIZIONI PERCHÉ

RISULTINO NOTI

• Ci si concentra quindi sulle caratteristiche del processo stocastico

che derivano da questi momenti

• I momenti che vengono specificati sono:

A) la funzione media E(X )

t 2

B) la funzione varianza E(X – µ) =γ

t 0

C) la funzione di autocovarianza E[(X – µ)(X – µ)]=γ

t t-k k

(autocorrelazione se consideriamo γ /γ )

k 0

Le ipotesi restrittive per permettere di inferire sulla distribuzione di

probabilità del processo stocastico vengono fatte, in particolare per

quel che concerne la stazionarietà, proprio su questi momenti al fine

di definire alcune classi di processi stocastici 14

PROCESSI STOCASTICI STAZIONARI

• In generale un processo stocastico si può definire stazionario se la

sua struttura probabilistica rimane costante nel tempo e cioè se le

variabili casuali componenti il processo stocastico presentano una

struttura probabilistica simile (il campione osservato risulta più

denso di informazioni sulle v.c. che hanno generato ciascuna

informazione)

• 2 concetti di stazionarietà per un processo stocastico:

A. stazionarietà in senso forte

B. stazionarietà in senso debole 15

PROCESSI STOCASTICI STAZIONARI

• Stazionarietà in senso forte: le funzioni di ripartizione finite

rimangono invariate rispetto a qualunque traslazione lungo l’asse

temporale

• X è quindi stazionario in senso forte se:

t , ,…., (x , x ,….,x ) = F (x ,x ,….x )

F t1 t2 tn 1 2 n t1+τ,t2+τ,….tn+τ 1 2 n

per ogni n, per ogni t (da 1 a n), per ogni τ e per ogni x (da 1 a n)

• Pertanto le funzioni di ripartizione finite dipendono dalla posizione

relativa e non dai valori effettivi di tn, per cui se anche gli istanti

temporali traslano le funzioni ripartizione rimangono invariate

• Nel caso della stazionarietà in senso forte, qualora esistano, i

momenti del processo stocastico saranno invarianti rispetto al

tempo, non saranno funzione del tempo t 16

PROCESSI STOCASTICI STAZIONARI

• Stazionarietà in senso debole:

A) il momento di primo ordine µ, è costante, per ogni t є T;

E(X )=µ<∞; quindi la funzione valor medio è costante;

t

B) il momento centrale di secondo ordine è finito e costante

2= 2

E(X – µ) σ < +∞; quindi la funzione varianza è costante

t

(omoschedasticità mentre per eteroschedasticità si intende varianza

non costante)

C) E[(X – µ)(X – µ)], cioè la funzione di autocovarianza dipende

t t-k

da k e non da t; il legame lineare tra le diverse variabili è costante a

parità di lag temporale e non muta al mutare di t; 17

PROCESSI STOCASTICI STAZIONARI

• Processi stocastici stazionari in senso forte, con momenti di

secondo ordine finiti, sono anche stazionari in senso debole

• Processi stocastici stazionari in senso debole non sono anche

stazionari in senso forte poiché momenti di ordine superiore al

secondo possono essere funzione del tempo;

• Le intuitive implicazioni pratiche di questa proprietà e l’ampio

ricorso al concetto di stazionarietà in senso debole;

• I processi stocastici gaussiani interamente caratterizzati dai

momenti di primo e secondo ordine e per i quali, pertanto,

stazionarietà in senso debole e stazionarietà in senso forte

coincidono 18

PROCESSI STOCASTICI STAZIONARI: IL PROCESSO STOCASTICO WHITE NOISE (WN)

• A) E(ε )=0;

t 2= 2

) σ < +∞; quindi la funzione varianza è costante;

• B) E(ε

t

• C) E(ε ,ε )= 0;

t t-k 19

PROCESSI STOCASTICI INVERTIBILI

• Un processo stocastico {X } si definisce invertibile se è esprimibile

t

come funzione delle variabili causali precedenti X e delle

t-k

innovazioni (a ) incorporate nella dinamica del processo

t-k

= f(X , X ,….,ε , ε ,….) + ε

X t t-1 t-2 t-1 t-2 t

{ε } è un WN

t ˆ

ˆ

ˆ =X - f(X , X ,…., , ,….)

ε

ε

ε t 2

t 1

t −

t t-1 t-2

ˆ

• definito e = ε – come errore di stima di ε , un processo

ε t

t t t

2

e

stocastico si dice invertibile se E( )=0

lim t

t → ∞

• Il processo diviene esprimibile come funzione convergente delle

v.c. precedenti 20

TEMI DELLA LEZIONE

1. Richiami alla precedente lezione: l’identificazione di una

classe di processi stocastici

2. Teorema di Wold

3. Brevi richiami alla trigonometria

4. Processi stocastici gaussiani

5. Ergodicità dei processi stocastici 3

RICHIAMI ALLA PRECEDENTE LEZIONE: L’IDENTIFICAZIONE DI UN CLASSE

DI PROCESSI STOCASTICI

• Processo stocastico: funzione aleatoria di due argomenti (t є T,

definito nello spazio parametrico T e l’evento ω є Ω definito in uno

spazio probabilistico)

X = {X(ω,t); ω є Ω , t є T}

• Quindi nella serie storica {X } per x=1,2,…,n

t

x è la realizzazione di X(ω,t=1)

1 è la realizzazione di X(ω,t=2)

x 2

x è la realizzazione di X(ω,t=3)

3

x è la realizzazione di X(ω,t=n)

n

• Ognuna delle v.c. suddette può avere una struttura probabilistica

diversa 4

RICHIAMI ALLA PRECEDENTE LEZIONE: L’IDENTIFICAZIONE DI UN CLASSE

DI PROCESSI STOCASTICI

• La famiglia delle ripartizioni finite caratterizza interamente una

famiglia di v.c. (processo stocastico) se sono soddisfatte le condizioni

di simmetria e coerenza (Kolmogorov)

• Ma la specificazione di tutte le funzioni di ripartizione che

costituiscono la famiglia delle ripartizioni finite richiede la stima di un

numero enorme di parametri impossibile da effettuare sulla base della

realizzazione finita rappresentata dalla serie storica

• In pratica si procede a specificare i momenti di primo e secondo grado

delle distribuzioni congiunte

[momento di ordine s si definisce il valore medio della potenza s-

esima della v.c. X; momento rispetto all’origine]

[momento centrale di ordine s si definisce il valore medio della

potenza s-esima della v.c. scarto; momento rispetto alla media] 5

RICHIAMI ALLA PRECEDENTE LEZIONE: L’IDENTIFICAZIONE DI UN CLASSE

DI PROCESSI STOCASTICI

• Ci si concentra quindi sulle caratteristiche del processo stocastico

che derivano da questi momenti

• I momenti che vengono specificati sono:

A) la funzione media E(X )

t

B) la funzione varianza E(X – µ) =γ

2

t 0

C) la funzione di autocovarianza E[(X – µ)(X – µ)]=γ

t t-k k

(autocorrelazione se consideriamo γ /γ )

k 0

• Le ipotesi restrittive per permettere di inferire sulla distribuzione di

probabilità del processo stocastico vengono fatte, in particolare per

quel che concerne la stazionarietà, proprio su questi momenti al fine

di definire alcune classi di processi stocastici 6

RICHIAMI ALLA PRECEDENTE LEZIONE: L’IDENTIFICAZIONE DI UN CLASSE

DI PROCESSI STOCASTICI

• In generale un processo stocastico si può definire stazionario se la

sua struttura probabilistica rimane costante nel tempo e cioè se le

variabili casuali componenti il processo stocastico presentano una

struttura probabilistica simile (il campione osservato risulta più

denso di informazioni sulle v.c. che hanno generato ciascuna

informazione)

• 2 concetti di stazionarietà per un processo stocastico:

A. stazionarietà in senso forte

B. stazionarietà in senso debole 7

RICHIAMI ALLA PRECEDENTE LEZIONE: L’IDENTIFICAZIONE DI UN CLASSE

DI PROCESSI STOCASTICI

• Stazionarietà in senso forte: le funzioni di ripartizione finite

rimangono invariate rispetto a qualunque traslazione lungo l’asse

temporale

• X è quindi stazionario in senso forte se:

t

F , ,…., (x , x ,….,x ) = F (x ,x ,….x )

t1 t2 tn 1 2 n t1+τ,t2+τ,….tn+τ 1 2 n

per ogni n, per ogni t (da 1 a n), per ogni τ e per ogni x (da 1 a n)

• Pertanto le funzioni di ripartizione finite dipendono dalla posizione

, per cui se anche gli istanti

relativa e non dai valori effettivi di t

n

temporali traslano le funzioni ripartizione rimangono invariate

• Nel caso della stazionarietà in senso forte, qualora esistano, saranno

invarianti rispetto al tempo, non saranno funzione del tempo t 8

RICHIAMI ALLA PRECEDENTE LEZIONE: L’IDENTIFICAZIONE DI UN CLASSE

DI PROCESSI STOCASTICI

• Stazionarietà in senso debole:

A) il momento di primo ordine µ, è costante, per ogni t

)=µ<∞; quindi la funzione valor medio è

appartenente a T; E(X t

costante;

B) il momento centrale di secondo ordine è finito e costante

E(X – µ) σ < +∞; quindi la funzione varianza è costante; il

2= 2

t

concetto di omoschedasticità (eteroschedasticità: varianza non

costante)

C) E[(X – µ)(X – µ)], cioè la funzione di autocovarianza dipende

t t-k

da k e non da t; il legame lineare tra le diverse variabili è costante a

parità di lag temporale e non muta al mutare di t; 9

RICHIAMI ALLA PRECEDENTE LEZIONE: L’IDENTIFICAZIONE DI UN CLASSE

DI PROCESSI STOCASTICI

• Per un processo stocastico stazionario si può calcolare

univocamente la funzione di autocovarianza (γ ) e quella di

k

autocorrelazione (ρ )

k

• Non è possibile invece risalire univocamente dalla funzione di

autocorrelazione al processo stazionario che l’ha generata

• Perché ciò sia possibile è necessario aggiungere una seconda

condizione a quella di stazionarietà che è la condizione di

invertibilità

• Se si considerano i diversi processi stocastici che hanno la

medesima funzione di autocorrelazione, uno solo è invertibile 10

RICHIAMI ALLA PRECEDENTE LEZIONE: L’IDENTIFICAZIONE DI UN CLASSE

DI PROCESSI STOCASTICI

• Un processo stocastico {X } si definisce invertibile se per ogni t è

t

esprimibile come funzione delle variabili causali precedenti X e un

t-k

processo white noise (εt)

• X = f(X , X ,….) + ε

t t-1 t-2 t

{ε } è un WN

t

• Il processo {X } è quindi come funzione convergente delle v.c.

t

precedenti il tempo t

• Per i processi stocastici stazionari e invertibili è possibile risalire

univocamente dalla funzione di autocorrelazione al processo

stocastico che l’ha generata

• LA CLASSE DEI PROCESSI STOCASTICI STAZIONARI E

INVERTIBILI E’ QUELLA CUI FAREMO RIFERIMENTO 11

TEOREMA DI WOLD (WOLD DECOMPOSITION)

Rappresentazione analitica di un processo stocastico stazionario

mediante strutture più elementari

“ogni processo stocastico stazionario {X } di valore medio µ può

t } e {V }

sempre essere scomposto univocamente in due processi {Z

t t

tra di loro incorrelati per ogni t e tali che

X = Z + V Cov(Z , V )=0 per ogni t Є T

t t t t t

con ∞ [ ] λ π

∑ ≤ ≤

0

µ λ β λ

= + +

V a sen ( t ) cos( t )

t j j j j

=

j 1 ∞

∞ ∑ 2

ψ ψ

∑ = < +∞

1

,

ψ ε

=

Z 0

t j t j j

=1

j

=

j 0

dove ε ~WN(0,σ ) ed essendo {α } e {β } delle successioni di variabili

2

t j j

casuali di media 0, omoschedastiche e fra loro incorrelate per ogni j”

(Piccolo, 1990) 12

TEOREMA DI WOLD (WOLD DECOMPOSITION)

• V di valore medio µ è la componente deterministica che produce

t

realizzazioni deterministiche come combinazione lineare di onde

periodiche. Qualora il nostro processo stocastico si esaurisse in V ,

t

la conoscenza di una realizzazione del processo ne consentirebbe la

previsione senza errore (varianza dell’errore di previsione=0)

• Z ha valore medio nullo ed è detta non deterministica, dipendente

t

da una successione di parametri ψ convergenti al quadrato e dalla

varianza del WN. In tal caso la conoscenza di una realizzazione di

non consente di determinare univocamente Z (k>0); varianza

Z

t t+k

dell’errore di previsione ≠ 0 13

TEOREMA DI WOLD (WOLD DECOMPOSITION)

• {ε } rappresenta l’errore WN che si compie nel prevedere Z (errore

t t

di previsione o innovazione) con le informazioni fino a Z ,

t-1

ˆ

mediante funzione lineare di tutte le Z ritardate Z (

1

)

t −

t 1

• L’errore quadratico di ε è dato da

t

ˆ

2 2

σ = −

E ( Z Z (

1

))

t t 1

ε

• Senza particolari restrizioni sulle previsioni, si può dimostrare che la

media condizionata E(Z |Z ) è la previsione ottima che minimizza

t t-1

l’errore quadratico medio di ε t 14

TEOREMA DI WOLD (WOLD DECOMPOSITION)

• V e Z sono incorrelate per cui per ogni momento t è possibile

t t

svilupparne un’analisi disgiunta

• la classe dei modelli ARMA fornirà gli strumenti per

approssimare la componente stocastica nella scomposizione

mediante un numero relativamente contenuto di parametri,

di Wold

che vengono pertanto limitati rispetto al numero infinito di ψ

j

• In particolare si assumerà che ψ(B) potrà esprimersi attraverso il

rapporto di due polinomi finiti θ(B) e φ(B) 15

TEOREMA DI WOLD (WOLD DECOMPOSITION)

• Il teorema di Wold consente lo studio di tutti i processi stazionari

mediante due componenti

• Chiaramente il teorema di Wold include i casi per i quali è presente la

sola componente deterministica (V ) [P(Z =0; per ogni t)=1] o la sola

t t

componente stocastica (Z ) [P(V =0; per ogni t)=1] . Il primo caso è

t t

proprio di tutti i fenomeni che si osservano nelle scienze esatte, il

secondo di quelli che si osservano nelle scienze economiche e sociali

• È del tutto evidente che il teorema di Wold è una rappresentazione

lineare di un processo stocastico, che pertanto si presenta fortemente

connessa al concetto di stazionarietà; ciò non significa che non

esistano rappresentazioni non lineari di processi stazionari (il teorema

di Wold si riferisce a v.c. incorrelate ma non necessariamente

indipendenti) 16

BREVI RICHIAMI ALLA TRIGONOMETRIA

• Consideriamo il semiasse positivo dell’ascissa e lo facciamo ruotare

in senso antiorario intorno all’origine: così si descrive un angolo

fino a completare la rotazione disegnando un angolo di 360°:

Grado: 360° parte dell’angolo giro

Radiante: angolo al centro che sottende un arco lungo come

il raggio

Poiché il rapporto tra circonferenza e diametro pari a π e

tra conferenza e raggio è pari a 2π, è possibile dire che la

misura in radianti di un angolo giro è pari a 2πrad, di un

angolo di 180° è pari a πrad, di un angolo retto è pari a

π/2rad 17

BREVI RICHIAMI ALLA TRIGONOMETRIA

• cos = ascissa

• sen = ordinata

• Seno e coseno sono funzioni dell’angolo che posso esprimere in

radianti

• Sono quindi funzioni periodiche con periodo pari a 2π

è molto importante poiché non è altro che

• la formulazione di V

t

una somma ponderata di seno e coseno, da cui sarà derivabile la

da cui poi giungeremo alle

serie di Fourier funzioni di densità

(l’analisi di Fourier

spettrale attraverso la trasformata di Fourier

dimostra che gran parte delle funzioni usuali è approssimabile

tramite una combinazione lineare di onde periodiche elementari; la

scomposizione di Wold e l’analisi spettrale) 18

PROCESSI STOCASTICI GAUSSIANI

• Un processo stocastico {X } si definisce gaussiano se e solo se per

t

ogni k-upla (t ,….t ) e per ogni k≥1 la distribuzione di (X ,….,X )

1 k t1 tk

è quella di una v.c. multivariata normale

1

1 / 2

− −

k / 2 1

π µ µ

= Σ − − Σ −

f ( x ,..., x ) ( 2 ) exp{ ( x )' ( x )}

1 k 2

con x є R

k

dove x’=(x ,…..,x ); µ’=(µ ,…..,µ ); µ =E(X ) con r=1,2,…;

1 k 1 k r r

Σ=║Cov(X ,X ║

r s

• Un processo stocastico si dice gaussiano se tutte le sue distribuzioni

congiunte sono normali multivariate 19

PROCESSI STOCASTICI GAUSSIANI

• dal

Se il processo gaussiano è stazionario in senso debole,

momento che media e matrice delle varianze e covarianze

caratterizzano interamente la funzione di densità, la famiglia delle

funzioni di ripartizioni finite sarà invariante rispetto a qualunque

traslazione sull’asse temporale: stazionarietà in senso debole e

stazionarietà in senso forte coincidono

• Se un processo gaussiano stazionario presenta media

in tal caso è completamente caratterizzato

costante e pari a 0,

dalla matrice delle varianze e covarianze e quindi la conoscenza

del processo equivale alla conoscenza di una funzione

che, se il processo stocastico gode di determinate

momento

proprietà, può essere stimata sulla base dei valori osservati 20

PROCESSI STOCASTICI GAUSSIANI

• Un processo stocastico WN è gaussiano se la distribuzione di

probabilità delle singole v.c. ε è normale per ogni t (incorrelazione tra

t

le variabili) del teorema di Wold,

• Quindi se un WN è gaussiano lo è anche lo Z

t

essendo una combinazione lineare di v.c. indipendenti convergente in

media quadratica

• la famiglia delle ripartizioni finite di un processo stocastico gaussiano

è quindi funzione esclusiva degli ψ e della varianza dei WN: ciò ne

favorirà la specificazione e la stima a partire dai valori osservati in

serie storica

• La normalità del WN non condiziona il teorema di Wold ma è

essenziale per la specificazione univoca del processo lineare

• L’ipotesi di normalità non è una restrizione eccessiva alla classe dei

processi stazionari (generalizzazione del teorema del limite centrale)

21

ERGODICITÀ DI UN PROCESSO STAZIONARIO

• L’ergodicità riguarda il problema di operare inferenza a partire dalla

conoscenza di n osservazioni di n campioni relativi ad n variabili

casuali

• L’ergodicità garantisce che a partire da alcuni dati osservati, sia

possibile fare inferenza su alcuni momenti del processo

• Per i processi stocastici la proprietà dell’ergodicità rappresenta

l’equivalente della proprietà della consistenza per gli stimatori

con riferimento alle variabili casuali (correttezza ed efficienza)

• uno stimatore è consistente se l’accuratezza della stima del parametro

della popolazione aumenta all’aumentare della numerosità

campionaria n, per cui

ˆ

ϑ ϑ ε

− < =

lim Pr( ) 1

→ ∞

n 22

ERGODICITÀ DI UN PROCESSO STAZIONARIO

• Per fare inferenza su alcuni momenti del processo stocastico la

condizione di stazionarietà è necessaria ma non sufficiente

• Le stime del valore atteso, della varianza e della funzione di

autocovarianza di un processo stazionario sono consistenti solo

se tale processo è ergodico )] di un processo stocastico

• Data una funzione momento E[v(X t

stazionario X , tale processo è ergodico se lo stimatore temporale di

t

tale funzione converge in media quadratica a E[v(X )]

ˆ

v ( x )

n t t

2

ˆ

lim E

[ v ( x ) E

[ v ( X )]]

n t t

→ ∞

n 23

ERGODICITÀ DI UN PROCESSO STAZIONARIO

• Quindi un processo stocastico stazionario è ergodico in media

(momento di primo ordine) se

2

ˆ

µ µ

− =

lim E ( ) 0

n

→ ∞

n n

1

µ

ˆ

con x

=

n t

n =

t 1

• Condizione necessaria (teorema ergodico di Slutsky) perché ciò si

verifichi è che la media dell’autocovarianza tenda a 0

n

1 ∑ γ =

lim 0

k

n

→ ∞

n =

k 0 24

ERGODICITÀ DI UN PROCESSO STAZIONARIO

• La condizione implica la precedente e si può accertare

γ =

lim 0

k

→ ∞

n

con maggiore facilità, ma il teorema ergodico di Slutsky vale

anche se l’autocovarianza non tende a 0 al crescere del lag

• Un processo stocastico stazionario normale è ergodico

(varianza e covarianza)

rispetto ai momenti di secondo ordine

se e solo se

n

1 ∑ 2

γ =

lim ( ) 0

k

n

→ ∞

n =

k 0

condizione che si verifica certamente se γ →0 ma più restrittiva

k

del teorema di Slutsky per la media 25

TEMI DELLA LEZIONE

1. Richiami alla precedente lezione

2. Le proprietà degli stimatori

3. L’ergodicità

4. Gli stimatori dei momenti di un processo stocastico

stazionario: le condizioni di ergodicità

5. Gli operatori lineari

6. Cenni alla derivazione dei processi stocastici ARMA a partire

dal teorema di Wold 3

RICHIAMI ALLA PRECEDENTE LEZIONE

• Il teorema di Wold

• I processi stocastici gaussiani

• L’ergodicità dei processi stocastici stazionari: è il tema

dell’ergodicità che connette la lezione precedente a quella di

oggi, poiché quando un processo stocastico stazionario è

ergodico, ciò permette di fare inferenza su alcuni momenti del

processo stocastico. Si può dire che la proprietà dell’ergodicità è

l’equivalente, nel campo dell’analisi delle serie storiche, della

proprietà della consistenza con riferimento alle variabili casuali

• Nella lezione odierna dopo aver ripercorso le proprietà degli

stimatori nell’inferenza classica si passerà agli stimatori dei

momenti di primo e secondo ordine di processi stocastici

stazionari ed ergodici 4

LE PROPRIETÀ DEGLI STIMATORI ϑ̂

• si definisce stimatore di un parametro una

Stimatore:

funzione reale dei valori osservati sulle unità campione c

ˆ

ϑ

• è la stima, ossia il valore che lo stimatore assume in

(

c

)

corrispondenza di un specifico campione c (si avranno quindi

tante stime quanti sono i possibili campioni di una certa

numerosità)

• Se definiamo P(c) la probabilità di estrarre un campione c di

{ }

ˆ

ϑ ( c ), P ( c )

numerosità n, allora definisce l’insieme delle coppie

che costituiscono la distribuzione campionaria dello stimatore 5

LE PROPRIETÀ DEGLI STIMATORI

• Il valore medio dello stimatore rispetto al disegno campionario è

dato da

ˆ ˆ

ϑ ϑ

= ∑

E ( ) P ( c )

c C

• Uno stimatore è se

corretto

ˆ

ϑ ϑ

=

E ( )

• Altrimenti è distorto

ˆ

ϑ ϑ

= −

B E

( )

• Qualunque sia la popolazione, la media campionaria è uno

stimatore corretto di µ, mentre la varianza campionaria è uno

2 (è corretta la varianza campionaria

stimatore distorto di σ

corretta e cioè la varianza campionaria diviso n-1) 6

LE PROPRIETÀ DEGLI STIMATORI

• Parte accidentale e parte sistematica dell’errore di stima

ˆ ˆ

δ ϑ ϑ ϑ

= − +

( ) E

( ) B

• Uno stimatore è se la sua accuratezza è tanto più

consistente

elevata quanto è maggiore la numerosità n del campione (per cui

per n → ∞ lo stimatore fornisce il valore del parametro

incognito) ϑ̂

• Formalmente è uno stimatore consistente se converge in

ϑ

probabilità a

ˆ

ϑ ϑ ε

− < =

lim Pr( ) 1

→ ∞

n 7

LE PROPRIETÀ DEGLI STIMATORI

• La convergenza in probabilità è verificata se

ˆ 2

ϑ ϑ

− =

lim E

[( ) ] 0

→ ∞

n

Ossia se l’errore quadratico medio converge a 0 e ciò avviene se

2 tende a 0

la varianza dello stimatore tende a 0 per n→∞ e B

sempre per n→∞ ˆ ˆˆ

ˆ ϑ̂ ϑ̂

ϑ ϑ

• Dati due stimatori e , è più di se

efficiente

ˆ

ˆ

ϑ

MSE ( ) ≤ 1

ˆ

ϑ

MSE ( ) 8

ERGODICITÀ DI UN PROCESSO STAZIONARIO

• L’ergodicità consente di inferire da una successione di dati osservati

su alcune funzioni momento del processo stocastico

• L’ergodicità si riferisce ad una funzione parametro del processo

stocastico (per esempio media, varianza o covarianza)

• Per i processi stocastici l’ergodicità è la proprietà equivalente a quella

della consistenza per le variabili casuali nell’inferenza classica

• Se si fa riferimento alla funzione media µ =E(X ) la rilevanza

t t

dell’ergodicità dipende dal fatto che l’informazione campionaria

contenuta in ciascuna osservazione in serie storica (ciascuna della

quali è realizzazione di una variabile casuale) possa essere di qualche

utilità per la stima µ (l’ergodicità garantisce che a partire da alcuni dati

t

osservati, sia possibile fare inferenza su alcuni momenti del processo)

9

ERGODICITÀ DI UN PROCESSO STAZIONARIO

• La stazionarietà è molto importante per l’ergodicità ma perché

l’informazione campionaria contenuta in x sia utile per la stima (ad

t

esempio di µt) è necessario che anche l’autocovarianza o

autocorrelazione incontrino un limite e tendano a 0 oltre un certo k

• Le stime del valore atteso, della varianza e della funzione di

autocovarianza di un processo stazionario sono consistenti solo se

tale processo è ergodico )] di un processo stocastico

• Data una funzione momento E[v(X t

stazionario X , tale processo è ergodico se lo stimatore temporale di

t ˆ

v ( x )

tale funzione converge in media quadratica a E[v(X )]

n t t

2

− =

ˆ

lim E

[ v ( x ) E [ v ( X )]] 0

n t t

→ ∞

n

• 10

ERGODICITÀ DI UN PROCESSO STAZIONARIO

• Quindi un processo stocastico stazionario è ergodico in media

(momento di primo ordine) se

2

ˆ

µ µ

− =

lim E ( ) 0

n

→ ∞

n n

1

µ

ˆ x

con =

n t

n =

t 1

• Condizione necessaria (teorema ergodico di Slutsky) perché ciò si

verifichi è che la media dell’autocovarianza tenda a 0

n

1 ∑ γ =

lim 0

k

n

→ ∞

n =

k 0 11

ERGODICITÀ DI UN PROCESSO STAZIONARIO

• La condizione implica la precedente e si può accertare

γ =

lim 0

k

→ ∞

n

con maggiore facilità, ma il teorema ergodico di Slutsky vale

anche se l’autocovarianza non tende a 0 al crescere del lag

• Un processo stocastico stazionario normale è ergodico

(varianza e covarianza)

rispetto ai momenti di secondo ordine

se e solo se

n

1 ∑ 2

γ =

lim ( ) 0

k

n

→ ∞

n =

k 0

condizione che si verifica certamente se γ →0 ma più restrittiva

k

del teorema di Slutsky per la media 12

GLI STIMATORI DEI MOMENTI DI UN PROCESSO STOCASTICO STAZIONARIO:

LE CONDIZIONI DI ERGODICITÀ

• Dai momenti teorici agli stimatori: la media

}, con t=1….n, la realizzazione nota del processo generatore

• sia {X t n

1 ∑

µ =

ˆ

• è stimatore corretto e consistente della media µ

x t

n =

t 1

del processo stocastico per cui e la cui

µ µ

=

ˆ

E [ ]

2 −

n 1

σ r

varianza è data da µ ρ

= + −

ˆ

[ ] [

1 2 (

1 ) ]

Var r

n n

=

r 1

• Perché lo stimatore della media sia consistente, è necessario che la

sua varianza tenda a 0 all’aumentare di n; poiché è evidente che

r

− ∞

n 1 ρ ρ

+ − = +

∑ ∑

lim ( 1 2 ( 1 ) ) 1 2

r r

n

→ ∞

n = =

r 1 r 1 13

GLI STIMATORI DEI MOMENTI DI UN PROCESSO STOCASTICO STAZIONARIO:

LE CONDIZIONI DI ERGODICITÀ

µ

• Allora, affinché =

ˆ

lim Var [ ] 0

→ ∞

n ∞

è sufficiente che ρ < ∞

∑ r

=

r 1

• quindi se ρ =

lim 0

r

→ ∞

n

1 n

allora è consistente

µ̂ = ∑ x t

n =

t 1

• Sussistendo la condizione (di ergodicità rispetto alla media)

ρ =

lim 0

r

n

è possibile stimare la media del processo dai dati osservati,

utilizzando lo stimatore appena analizzato. 14

GLI STIMATORI DEI MOMENTI DI UN PROCESSO STOCASTICO STAZIONARIO:

LE CONDIZIONI DI ERGODICITÀ

• Dai momenti teorici agli stimatori: l’autocovarianza

1 n k

γ µ µ

= − −

ˆ ˆ ˆ

( x )( x )

• è uno stimatore consistente

+

k t t k

n =

t 1 γ

ma distorto di (autocovarianza del processo generatore),

k

sotto condizioni di ergodicità più stringenti di quelle descritte per

la media γ

ˆ

• lo distorsione dello stimatore tende a 0 al crescere di n

k

(perché le stime possano ritenersi soddisfacenti è necessario che

n, il numero di osservazioni disponibili, sia sufficientemente

elevato, almeno >50, e che k sia molto minore di n) 15

GLI STIMATORI DEI MOMENTI DI UN PROCESSO STOCASTICO STAZIONARIO:

LE CONDIZIONI DI ERGODICITÀ

• Se k=0, la formula dello stimatore dell’autocovarianza diverrà la

formula dello stimatore (distorto ma consistente) della varianza

n

1 ∑

2 2

σ γ µ

ˆ

= = −

ˆ ˆ

( x )

t

0 n =

t 1 ρ

• Quindi uno stimatore ragionevole della autocorrelazione k

γ

ˆ

k

ρ

ˆ = ρ

sarà dato da che è a sua volta stimatore distorto di

k k

γ

ˆ 0

di cui è possibile però dimostrare la consistenza. 16

GLI OPERATORI LINEARI

• Teoria degli operatori lineari applicati alle successioni di v.c.:

notevoli semplificazioni

• In generale:

una trasformazione S dallo spazio vettoriale V allo spazio vettoriale

W, entrambi definiti sul campo F, è una trasformazione che associa

ad ogni elemento v є V un unico elemento w є W tale che w =

S(v)

una trasformazione L è lineare se per qualsiasi c є F, (v , v ) є V:

1 2

L(cv + v ) = cL(v ) + L(v )

1 2 1 2

se L è una trasformazione lineare da V a V, allora L è un operatore

lineare in V 17

GLI OPERATORI LINEARI

• L’operatore lineare ritardo B (Backward)

BZ = Z

t t-1 2

BZ = Z → B Z

t-1 t-2 t

k

B Z = Z

t t-k

0

B Z = Z

t t

• Poiché si tratta di un operatore lineare

(a +a B)Z = a Z + a Z

0 1 t 0 t 1 t-1

in generale per operatori polinomiali

2 m

a (B)Z = (a + a B + a B +…..+a B )Z =

m t 0 1 2 m t

+ a Z + a Z +……a Z

= a

0 1 t-1 2 t-2 m t-m 18

GLI OPERATORI LINEARI

• Due operatori sono uguali se, applicati alla medesima funzione,

producono lo stesso risultato

∆Z = Z - Z

t t t-1

poiché Z - Z = Z - BZ =(1 – B) Z

t t-1 t - t t

∆= 1 –B

2 2 2

• Quindi ∆ = (1 – B) = 1 – 2B + B

per cui

2 2 2

∆ Z = (1 – B) Z = (1 – 2B + B )Z = Z – 2Z + Z

t t t t t-1 t-2

quindi, l’operatore differenza di lag s

s s 2 s-1 2

∆ =(1 – B) = (1 – B) (1 + B + B + ….+ B ) = ∆ (1 + B + B +

s-1

….+ B ) 19

GLI OPERATORI LINEARI

• Analogamente avremo l’operatore lineare F (Forward)

FZ = Z

t t+1 - 1

quindi F = B

per cui FB = BF = 1

• Gli operatori lineari obbediscono a tutte le regole dell’algebra

ordinaria per cui è possibile applicare a B ogni manipolazione

algebricamente valida

• Tale proprietà discende la principio che afferma che l’Algebra

degli operatori polinomiali è isomorfa all’algebra dei polinomi 20

GLI OPERATORI LINEARI

• Ritornando alla componente aleatoria nella quale scomponiamo

il processo stocastico stazionario in base al teorema di Wold

∑ j

ψ ε

=

Z B

t j t

=

j 0

• Possiamo scriverlo, utilizzando l’algebra degli operatori lineari,

come 2

=ψ + ψ Bε + ψ B ε +……..

Z

t 0 1 t 2 t

Z = ψ(B)ε

t t

• Sarà proprio l’approssimazione finita dell’operatore lineare ψ(B)

ad introdurci ai modelli ARMA 21

CENNI ALLA DERIVAZIONE DEI PROCESSI STOCASTICI ARMA A PARTIRE DAL

TEOREMA DI WOLD

• La classe dei processi stocastici WN gaussiani

• Modelli ARMA che identificano un processo stazionario ARMA,

caratterizzato dalla funzione di autocovarianza a sua volta

funzione biunivoca dei parametri del modello

• Il problema dell’approssimazione della funzione operatore ψ(B)a

t

mediante un numero finito di coefficienti, verrà impostato a

partire dall’affermazione, derivante dalla teoria

dell’approssimazione numerica delle funzioni mediante polinomi

algebrici, per cui la migliore approssimazione (che rende minimo

l’errore assoluto nell’intervallo dato), a parità di coefficienti

essenziali, la si ottiene mediante polinomi algebrici razionali 22

TEMI DELLA LEZIONE

1. Richiami alla precedente lezione: l’ergodicità

2. Gli operatori lineari

3. Funzione di autocorrelazione e inferenza

4. I processi stocastici AR, MA, ARMA e ARIMA

5. Cenni alle funzioni di autocorrelazione

6. Introduzione all’utilizzo di TRAMO SEATS 3

RICHIAMI ALLA PRECEDENTE LEZIONE: L’ERGODICITA’

• L’ergodicità consente di inferire da una successione di dati osservati

su alcune funzioni momento del processo stocastico

• L’ergodicità si riferisce ad una funzione parametro del processo

stocastico (per esempio media, varianza o covarianza)

• Per i processi stocastici l’ergodicità è la proprietà equivalente a quella

della consistenza per le variabili casuali nell’inferenza classica

• Se si fa riferimento alla funzione µ =E(X ) la rilevanza di questa

t t

proprietà dipende dal fatto che l’informazione campionaria contenuta

in ciascuna osservazione in serie storica (ciascuna della quali è

realizzazione di una variabile casuale) possa essere di qualche utilità

per la stima µ (l’ergodicità garantisce che a partire da alcuni dati

t

osservati, sia possibile fare inferenza su alcuni momenti del processo)

4

RICHIAMI ALLA PRECEDENTE LEZIONE: L’ERGODICITA’

• La stazionarietà è molto importante per l’ergodicità ma perché

l’informazione campionaria contenuta in x sia utile per la stima (ad

t

esempio di µt) è necessario che anche l’autocovarianza o

autocorrelazione incontrino un limite e tendano a 0 oltre un certo k

• Le stime del valore atteso, della varianza e della funzione di

autocovarianza di un processo stazionario sono consistenti solo se

tale processo è ergodico )] di un processo stocastico

• Data una funzione momento E[v(X t

stazionario X , tale processo è ergodico se lo stimatore temporale di

t ˆ

v ( x )

tale funzione converge in media quadratica a E[v(X )]

n t t

2

− =

ˆ

lim E

[ v ( x ) E [ v ( X )]] 0

n t t

→ ∞

n 5

RICHIAMI ALLA PRECEDENTE LEZIONE: L’ERGODICITA’

• Condizione necessaria (teorema ergodico di Slutsky) perché un

processo stocastico sia è che la media

ergodico in media

dell’autocovarianza tenda a 0

n

1 ∑ γ =

lim 0

k

n

→ ∞

n =

k 0 →0 è condizione sufficiente

• La condizione che per k→∞ γ k

perché si verifichi il teorema ergodico di Slutsky 6

RICHIAMI ALLA PRECEDENTE LEZIONE: L’ERGODICITA’

• Un processo stocastico stazionario normale è ergodico rispetto ai

(varianza e autocovarianza) se e solo

momenti di secondo ordine

se n

1 ∑ 2

γ =

lim ( ) 0

k

n

→ ∞

n =

k 0

condizione che risulta interamente verificata se γ →0

k

• Tale condizione si rivela necessaria e sufficiente per qualunque

momento di un processo gaussiano stazionario che, per

definizione, è interamente caratterizzato dalla funzione di

autocovarianza 7

FUNZIONE DI AUTOCORRELAZIONE E INFERENZA

• La funzione di autocorrelazione globale per processi stazionari e

invertibili (e quindi ergodici) converge a zero oppure è pari a zero a

partire da un certo lag

• Nella classe dei processi gaussiani, stazionari, invertibili e di valor

medio nullo, c’è corrispondenza biunivoca tra funzione di

autocovarianza e la famiglia delle ripartizioni finite propria del

processo stocastico

• È quindi possibile specificare il processo stocastico a partire dalla

funzione di autocovarianza

• La funzione di autocovarianza può essere stimata in modo

consistente se il processo è ergodico

• La condizione di invertibilità come condizione della corrispondenza

biunivoca tra funzione di autocovarianza e processo stocastico 8

FUNZIONE DI AUTOCORRELAZIONE E INFERENZA

• La stima della funzione di autocovarianza permette di risalire da

una serie osservata ad una parametrizzazione finita di un

processo stocastico nell’ambito di una determinata classe di

processi stocastici (gaussiani stazionari e invertibili)

• Nell’inferenza classica si risale da singole osservazioni

campionarie al modello probabilistico della popolazione

(variabile casuale generatrice) stimando opportuni parametri

• Nell’inferenza delle serie storiche si risale ad una

parametrizzazione finita di un processo stocastico mediante

un’intera funzione momento stimata sulla base dei dati osservati

in successione temporale 9

GLI OPERATORI LINEARI

• Teoria degli operatori lineari applicati alle successioni di v.c.:

notevoli semplificazioni

• L’operatore (Backward)

lineare ritardo B 2

BZ = Z BZ = Z → B Z

t t-1 ; t-1 t-2 t

k 0

B Z = Z B Z = Z

t t-k ; t t

• Poiché si tratta di un operatore lineare

(a +a B)Z = a Z + a Z

0 1 t 0 t 1 t-1

in generale per operatori polinomiali

2 m

a (B)Z = (a + a B + a B +…..+a B )Z =

m t 0 1 2 m t

= a + a Z + a Z +……a Z

0 1 t-1 2 t-2 m t-m 10

GLI OPERATORI LINEARI

• Due operatori sono uguali se, applicati alla medesima funzione,

producono lo stesso risultato

∆Z = Z - Z

t t t-1

poiché Z - Z = Z - BZ =(1 – B) Z

t t-1 t - t t

∆= 1 –B

2 2 2

• Quindi ∆ = (1 – B) = 1 – 2B + B

per cui

2 2 2

∆ Z = (1 – B) Z = (1 – 2B + B )Z = Z – 2Z + Z

t t t t t-1 t-2

quindi, l’operatore differenza di lag s

s s 2 s-1 2

∆ =(1 – B) = (1 – B) (1 + B + B + ….+ B ) = ∆ (1 + B + B +

s-1

….+ B ) 11

GLI OPERATORI LINEARI

• Analogamente avremo (Forward)

l’operatore lineare F

FZ = Z

t t+1 - 1

quindi F = B

per cui FB = BF = 1

• Gli operatori lineari obbediscono a tutte le regole dell’algebra

ordinaria per cui è possibile applicare a B ogni manipolazione

algebricamente valida

• Tale proprietà discende la principio che afferma che l’Algebra

degli operatori polinomiali è isomorfa all’algebra dei polinomi 12

GLI OPERATORI LINEARI

• Ritornando alla componente aleatoria nella quale scomponiamo

il processo stocastico stazionario in base al teorema di Wold

∑ j

ψ ε

=

Z B

t j t

=

j 0

• Possiamo scriverlo, utilizzando l’algebra degli operatori lineari,

come 2

Z =ψ + ψ Bε + ψ B ε +……..

t 0 1 t 2 t

Z = ψ(B)ε

t t

• Sarà proprio l’approssimazione finita dell’operatore lineare ψ(B)

ad introdurci ai modelli ARMA 13

CENNI ALLA DERIVAZIONE DEI PROCESSI STOCASTICI ARMA A PARTIRE DAL

TEOREMA DI WOLD

• La classe dei processi stocastici WN gaussiani

• Modelli ARMA che identificano un processo stazionario ARMA,

caratterizzato dalla funzione di autocovarianza a sua volta

funzione biunivoca dei parametri del modello

• Nell’analisi numerica l’approssimazione di una funzione continua

in un intervallo può essere ottenuta in diversi modi:

Polinomio di grado finito

Polinomio razionale

Un insieme di funzioni ortogonali 14

CENNI ALLA DERIVAZIONE DEI PROCESSI STOCASTICI ARMA A PARTIRE DAL

TEOREMA DI WOLD

• Il confronto tra le bontà delle approssimazioni va effettuata a

parità di parametri essenziali coinvolti

• La migliore approssimazione di una funzione mediante polinomi

algebrici, a parità di coefficienti, si ottiene con i polinomi razionali

• La componente aleatoria della rappresentazione di un processo

stocastico stazionario basata sul teorema di Wold

∑ ψ ε ε ψε ψε ψ ε

= = + + + =

Z .... ( B )

− − −

t j t j t t 1 t 2 t

=

j 0

• Una conveniente approssimazione dell’operatore lineare ψ(B) può

essere scelta nella classe dei polinomi razionali che coinvolgono

un numero di parametri stimabili dalle osservazioni 15

I PROCESSI STOCASTICI AR, MA, ARMA [PROCESSI MA(Q)]

• Approssimazione di ψ(B) mediante il troncamento della serie di ε al

t

lag q<j (ψj=0 per j>q)

• Operatore lineare ψ(B) approssimato dal polinomio θ(B), per cui

=ψ(B)ε Z =θ(B)ε

Z

t t t t

• Z processo a Media Mobile (Moving Average) di ordine q MA(q)

t

• Zt = ε – θ ε – θ ε – θ ε - …… - θ ε = Z =θ(B)ε

t 1 t-1 2 t-2 3 t-3 q t-q t t

2 q

• θ(B) = 1 - θ B – θ B - …. - θ B = operatore lineare Media Mobile

1 2 q

di ordine q 16

I PROCESSI STOCASTICI AR, MA, ARMA [PROCESSI MA(Q)]

-1

• Anche l’inverso di ψ(B), ψ (B) può essere approssimato dal

-1

polinomio φ(B), cioè ψ(B) è approssimabile da φ (B)

-1

• Z =φ (B)ε

t t

• φ(B)Z =ε

t t

• Z processo a Autoregressivo (Autoregressive) di ordine p AR(p) :

t

φ(B)Z = Z – φ Z – φ Z – φ Z - …… - φ Z = a

t t 1 t-1 2 t-2 3 t-3 p t-p t

2 p

• φ(B) = 1 - φ B – φ B - …. - φ B = operatore lineare

1 2 p

Autoregressivo di ordine p 17

I PROCESSI STOCASTICI AR, MA, ARMA [PROCESSI ARMA(P,Q)]

• La maggior efficienza di un polinomio razionale nell’approssimare

ψ(B) -1

ψ(B) = φ (B) θ(B)

φ(B)Z = θ(B)ε

t t

2 p 2 q

(1 - φ B – φ B - ... - φ B ) Z = (1 - θ B – θ B - ... - θ B )ε

1 2 p t 1 2 q t

-1

• φ (B) θ(B) operatore lineare Autoregressivo Media Mobile

(ARMA) di ordine p,q 2 q

ϑ ϑ ϑ

(1 - B – B - ... - qB )

1 2

-1

(B) θ(B) =

φ 2 p

φ φ φ

(1 - B – B - ... - B )

1 2 p 18

I PROCESSI STOCASTICI AR(P), MA(Q) E ARMA(P,Q)

ARMA (p,0) = AR(p)

ARMA (q,0) = MA(q)

ARMA (p,q)

ARMA (0,0) = AR(0) = MA(0) = WN

• Proprietà stocastiche di un processo ARMA dipendenti dalle

proprietà algebriche degli operatori lineari ed in particolare dalla

natura delle radici delle equazioni caratteristiche θ(B) = 0 e

φ(B) = 0

• le radici del polinomio: l'insieme di quei valori che, sostituiti alle

variabili, danno all'espressione polinomiale il valore nullo

• p(y); la radice è un numero d, tale che p(d)=0 19

I PROCESSI STOCASTICI AR(P), MA(Q) E ARMA(P,Q)

• La condizione di stazionarietà dell’operatore AR φ(B) è che

tutte le radici dell’equazione caratteristica φ(B) = 0 siano in

modulo esterne al cerchio unitario

• La condizione di invertibilità dell’operatore MA θ(B) è che tutte

le radici dell’equazione caratteristica θ(B) = 0 siano in modulo

esterne al cerchio unitario

• Un processo ARMA stazionario e invertibile ammette anche

una rappresentazione MA oppure AR ed è dimostrabile che un

processo AR è sempre invertibile ed una processo MA è

sempre stazionario

• processi ARMA stazionari e invertibili

Processi ammissibili: 20

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

• Funzione di ρ = corr (X , X ) =

autocorrelazione globale k t t-k

γ /γ

k 0

è una misura della correlazione che tiene conto delle

correlazioni corrispondenti a tutti i lag;

• Funzione di φ è una misura della

autocorrelazione parziale kk

correlazione al lag K al netto delle correlazioni a tutti gli altri lag

• L’autocorrelogramma 21

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

1.0 ACF MA(1) con θ>0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6

-0.8

-1.0 1 2 3 4 5 6 7 8 9 10 22

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

1.0 PACF MA(1) con θ>0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6

-0.8

-1.0 1 2 3 4 5 6 7 8 9 10

23

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

1.0 ACF MA(1) con θ<0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6

-0.8

-1.0 1 2 3 4 5 6 7 8 9 10

24

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

1.0 PACF MA(1) con θ<0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6

-0.8

-1.0 1 2 3 4 5 6 7 8 9 10

25

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

1.0 ACF AR(1) con φ<0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6

-0.8

-1.0 1 2 3 4 5 6 7 8 9 10

26

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

1.0 PACF AR(1) con φ<0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6

-0.8

-1.0 1 2 3 4 5 6 7 8 9 10

27

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

1.0 ACF ARMA (1,1) con φ>θ>0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6

-0.8

-1.0 1 2 3 4 5 6 7 8 9 10

28

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

1.0 PACF ARMA (1,1) con φ>θ>0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6

-0.8

-1.0 1 2 3 4 5 6 7 8 9 10

29

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

Time Series Regression with ARIMA Noise, Missing

Observations and Outliers (TRAMO)

Signal Extractions in Arima Time Series (SEATS)

I temi

1. Il modello utilizzato e lo schema delle operazioni

2. Correzione della serie storica per gli effetti deterministici:

effetti di calendario

dati anomali

utilizzo di regressori esterni

3. Stima dei valori mancanti (missing values)

4. Scomposizione della serie storica 30

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS:

1. IL MODELLO UTILIZZATO E LO SCHEMA DELLE OPERAZIONI

Il teorema di Wold

la serie (1) = w + z

y t t t

stazionaria in covarianza è sempre scomponibile:

in una parte deterministica (w )

t

Σβ

= x

(2) w

t i it

ed una parte stocastica

che si ipotizza segua un modello ARIMA stagionale

s d s D s

ϕ(B)Φ(B θ(B)ϑ(B

)(1-B) (1-B ) z = )a

(3) t t 31

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS:

1. IL MODELLO UTILIZZATO E LO SCHEMA DELLE OPERAZIONI

poiché in base alla (1) e alla (2)

Σβ

(4) z = y - x

t t i it

possiamo riformulare la (3) come segue

s d s D s

ϕ(B)Φ(B

(5) )(1-B) (1-B ) (y -Σβ x )=θ(B)ϑ(B )a

t i it t

guardando la (5),

TRAMO opera secondo la sequenza operativa 32

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS:

1. IL MODELLO UTILIZZATO E LO SCHEMA DELLE OPERAZIONI

a) Stima dei valori mancanti (missing values) Σβ

b) Stima degli effetti deterministici contenuti in x

i it

l’effetto giorni lavorativi

l’effetto Pasqua

i valori anomali

eventuali regressori esterni (e.g. holidays, dummies)

β stimati mediante la massima verosimiglianza

i 33

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS:

1. IL MODELLO UTILIZZATO E LO SCHEMA DELLE OPERAZIONI

c) Depurazione di y dagli effetti deterministici ottenendo in tal modo

t

z (4) la serie linearizzata che verrà trasferita a SEATS per la

t

scomposizione

d) Riduzione a stazionarietà di z mediante l’applicazione d e D volte

t

di = 1-B d s D

(6) v = (1-B) (1-B ) z

t t

e) Stima di un modello ARMA su v utilizzando il metodo della

t

massima verosimiglianza 34

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS:

1. IL MODELLO UTILIZZATO E LO SCHEMA DELLE OPERAZIONI

i parametri che vengono inseriti nelle

stringhe nelle ultime righe del file di input,

istruiscono TRAMO perché esegua la

sequenza operativa prima descritta 35

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

2. CORREZIONE DELLA SERIE STORICA PER GLI EFFETTI DETERMINISTICI

a) effetti di calendario

Giorni lavorativi (trading days)

Festività mobili (Easter effect)

Festività nazionali (Holidays; e.g.: 25 aprile in Italia)

b) dati anomali

c) utilizzo di regressori esterni per la correzione

per altri effetti deterministici (variabili dummy) 36

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

2. CORREZIONE DELLA SERIE STORICA PER GLI EFFETTI DETERMINISTICI

a) effetti di calendario: giorni lavorativi

due approcci possibili

metodo proporzionale

(applicazione di un coefficiente al dato del mese i-esimo; per le serie

con riferimento a produzioni a lavorazione discontinua dato dal

rapporto tra il numero medio di giorni lavorativi mensili dell’anno

base ed il numero di giorni lavorativi del mese i-esimo;

metodo di regressione 37


ACQUISTATO

2 volte

PAGINE

215

PESO

1.40 MB

AUTORE

Sara F

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in economia e commercio
SSD:
Università: Firenze - Unifi
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Sara F di informazioni apprese con la frequenza delle lezioni di Statistica economica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Firenze - Unifi o del prof Buzzigoli Lucia.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Statistica economica

Statistica economica - i modelli di regressione
Dispensa
Statistica economica - serie storiche
Appunto
Statistica economica - Appunti
Appunto
Statistica economica - Appunti
Appunto