Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

RICHIAMI ALLA PRECEDENTE LEZIONE: L’IDENTIFICAZIONE DI UN CLASSE

DI PROCESSI STOCASTICI

• In generale un processo stocastico si può definire stazionario se la

sua struttura probabilistica rimane costante nel tempo e cioè se le

variabili casuali componenti il processo stocastico presentano una

struttura probabilistica simile (il campione osservato risulta più

denso di informazioni sulle v.c. che hanno generato ciascuna

informazione)

• 2 concetti di stazionarietà per un processo stocastico:

A. stazionarietà in senso forte

B. stazionarietà in senso debole 7

RICHIAMI ALLA PRECEDENTE LEZIONE: L’IDENTIFICAZIONE DI UN CLASSE

DI PROCESSI STOCASTICI

• Stazionarietà in senso forte: le funzioni di ripartizione finite

rimangono invariate rispetto a qualunque traslazione lungo l’asse

temporale

• X è quindi stazionario in senso forte se:

t

F , ,…., (x , x ,….,x ) = F (x ,x ,….x )

t1 t2 tn 1 2 n t1+τ,t2+τ,….tn+τ 1 2 n

per ogni n, per ogni t (da 1 a n), per ogni τ e per ogni x (da 1 a n)

• Pertanto le funzioni di ripartizione finite dipendono dalla posizione

, per cui se anche gli istanti

relativa e non dai valori effettivi di t

n

temporali traslano le funzioni ripartizione rimangono invariate

• Nel caso della stazionarietà in senso forte, qualora esistano, saranno

invarianti rispetto al tempo, non saranno funzione del tempo t 8

RICHIAMI ALLA PRECEDENTE LEZIONE: L’IDENTIFICAZIONE DI UN CLASSE

DI PROCESSI STOCASTICI

• Stazionarietà in senso debole:

A) il momento di primo ordine µ, è costante, per ogni t

)=µ<∞; quindi la funzione valor medio è

appartenente a T; E(X t

costante;

B) il momento centrale di secondo ordine è finito e costante

E(X – µ) σ < +∞; quindi la funzione varianza è costante; il

2= 2

t

concetto di omoschedasticità (eteroschedasticità: varianza non

costante)

C) E[(X – µ)(X – µ)], cioè la funzione di autocovarianza dipende

t t-k

da k e non da t; il legame lineare tra le diverse variabili è costante a

parità di lag temporale e non muta al mutare di t; 9

RICHIAMI ALLA PRECEDENTE LEZIONE: L’IDENTIFICAZIONE DI UN CLASSE

DI PROCESSI STOCASTICI

• Per un processo stocastico stazionario si può calcolare

univocamente la funzione di autocovarianza (γ ) e quella di

k

autocorrelazione (ρ )

k

• Non è possibile invece risalire univocamente dalla funzione di

autocorrelazione al processo stazionario che l’ha generata

• Perché ciò sia possibile è necessario aggiungere una seconda

condizione a quella di stazionarietà che è la condizione di

invertibilità

• Se si considerano i diversi processi stocastici che hanno la

medesima funzione di autocorrelazione, uno solo è invertibile 10

RICHIAMI ALLA PRECEDENTE LEZIONE: L’IDENTIFICAZIONE DI UN CLASSE

DI PROCESSI STOCASTICI

• Un processo stocastico {X } si definisce invertibile se per ogni t è

t

esprimibile come funzione delle variabili causali precedenti X e un

t-k

processo white noise (εt)

• X = f(X , X ,….) + ε

t t-1 t-2 t

{ε } è un WN

t

• Il processo {X } è quindi come funzione convergente delle v.c.

t

precedenti il tempo t

• Per i processi stocastici stazionari e invertibili è possibile risalire

univocamente dalla funzione di autocorrelazione al processo

stocastico che l’ha generata

• LA CLASSE DEI PROCESSI STOCASTICI STAZIONARI E

INVERTIBILI E’ QUELLA CUI FAREMO RIFERIMENTO 11

TEOREMA DI WOLD (WOLD DECOMPOSITION)

Rappresentazione analitica di un processo stocastico stazionario

mediante strutture più elementari

“ogni processo stocastico stazionario {X } di valore medio µ può

t } e {V }

sempre essere scomposto univocamente in due processi {Z

t t

tra di loro incorrelati per ogni t e tali che

X = Z + V Cov(Z , V )=0 per ogni t Є T

t t t t t

con ∞ [ ] λ π

∑ ≤ ≤

0

µ λ β λ

= + +

V a sen ( t ) cos( t )

t j j j j

=

j 1 ∞

∞ ∑ 2

ψ ψ

∑ = < +∞

1

,

ψ ε

=

Z 0

t j t j j

=1

j

=

j 0

dove ε ~WN(0,σ ) ed essendo {α } e {β } delle successioni di variabili

2

t j j

casuali di media 0, omoschedastiche e fra loro incorrelate per ogni j”

(Piccolo, 1990) 12

TEOREMA DI WOLD (WOLD DECOMPOSITION)

• V di valore medio µ è la componente deterministica che produce

t

realizzazioni deterministiche come combinazione lineare di onde

periodiche. Qualora il nostro processo stocastico si esaurisse in V ,

t

la conoscenza di una realizzazione del processo ne consentirebbe la

previsione senza errore (varianza dell’errore di previsione=0)

• Z ha valore medio nullo ed è detta non deterministica, dipendente

t

da una successione di parametri ψ convergenti al quadrato e dalla

varianza del WN. In tal caso la conoscenza di una realizzazione di

non consente di determinare univocamente Z (k>0); varianza

Z

t t+k

dell’errore di previsione ≠ 0 13

TEOREMA DI WOLD (WOLD DECOMPOSITION)

• {ε } rappresenta l’errore WN che si compie nel prevedere Z (errore

t t

di previsione o innovazione) con le informazioni fino a Z ,

t-1

ˆ

mediante funzione lineare di tutte le Z ritardate Z (

1

)

t −

t 1

• L’errore quadratico di ε è dato da

t

ˆ

2 2

σ = −

E ( Z Z (

1

))

t t 1

ε

• Senza particolari restrizioni sulle previsioni, si può dimostrare che la

media condizionata E(Z |Z ) è la previsione ottima che minimizza

t t-1

l’errore quadratico medio di ε t 14

TEOREMA DI WOLD (WOLD DECOMPOSITION)

• V e Z sono incorrelate per cui per ogni momento t è possibile

t t

svilupparne un’analisi disgiunta

• la classe dei modelli ARMA fornirà gli strumenti per

approssimare la componente stocastica nella scomposizione

mediante un numero relativamente contenuto di parametri,

di Wold

che vengono pertanto limitati rispetto al numero infinito di ψ

j

• In particolare si assumerà che ψ(B) potrà esprimersi attraverso il

rapporto di due polinomi finiti θ(B) e φ(B) 15

TEOREMA DI WOLD (WOLD DECOMPOSITION)

• Il teorema di Wold consente lo studio di tutti i processi stazionari

mediante due componenti

• Chiaramente il teorema di Wold include i casi per i quali è presente la

sola componente deterministica (V ) [P(Z =0; per ogni t)=1] o la sola

t t

componente stocastica (Z ) [P(V =0; per ogni t)=1] . Il primo caso è

t t

proprio di tutti i fenomeni che si osservano nelle scienze esatte, il

secondo di quelli che si osservano nelle scienze economiche e sociali

• È del tutto evidente che il teorema di Wold è una rappresentazione

lineare di un processo stocastico, che pertanto si presenta fortemente

connessa al concetto di stazionarietà; ciò non significa che non

esistano rappresentazioni non lineari di processi stazionari (il teorema

di Wold si riferisce a v.c. incorrelate ma non necessariamente

indipendenti) 16

BREVI RICHIAMI ALLA TRIGONOMETRIA

• Consideriamo il semiasse positivo dell’ascissa e lo facciamo ruotare

in senso antiorario intorno all’origine: così si descrive un angolo

fino a completare la rotazione disegnando un angolo di 360°:

Grado: 360° parte dell’angolo giro

Radiante: angolo al centro che sottende un arco lungo come

il raggio

Poiché il rapporto tra circonferenza e diametro pari a π e

tra conferenza e raggio è pari a 2π, è possibile dire che la

misura in radianti di un angolo giro è pari a 2πrad, di un

angolo di 180° è pari a πrad, di un angolo retto è pari a

π/2rad 17

BREVI RICHIAMI ALLA TRIGONOMETRIA

• cos = ascissa

• sen = ordinata

• Seno e coseno sono funzioni dell’angolo che posso esprimere in

radianti

• Sono quindi funzioni periodiche con periodo pari a 2π

è molto importante poiché non è altro che

• la formulazione di V

t

una somma ponderata di seno e coseno, da cui sarà derivabile la

da cui poi giungeremo alle

serie di Fourier funzioni di densità

(l’analisi di Fourier

spettrale attraverso la trasformata di Fourier

dimostra che gran parte delle funzioni usuali è approssimabile

tramite una combinazione lineare di onde periodiche elementari; la

scomposizione di Wold e l’analisi spettrale) 18

PROCESSI STOCASTICI GAUSSIANI

• Un processo stocastico {X } si definisce gaussiano se e solo se per

t

ogni k-upla (t ,….t ) e per ogni k≥1 la distribuzione di (X ,….,X )

1 k t1 tk

è quella di una v.c. multivariata normale

1

1 / 2

− −

k / 2 1

π µ µ

= Σ − − Σ −

f ( x ,..., x ) ( 2 ) exp{ ( x )' ( x )}

1 k 2

con x є R

k

dove x’=(x ,…..,x ); µ’=(µ ,…..,µ ); µ =E(X ) con r=1,2,…;

1 k 1 k r r

Σ=║Cov(X ,X ║

r s

• Un processo stocastico si dice gaussiano se tutte le sue distribuzioni

congiunte sono normali multivariate 19

PROCESSI STOCASTICI GAUSSIANI

• dal

Se il processo gaussiano è stazionario in senso debole,

momento che media e matrice delle varianze e covarianze

caratterizzano interamente la funzione di densità, la famiglia delle

funzioni di ripartizioni finite sarà invariante rispetto a qualunque

traslazione sull’asse temporale: stazionarietà in senso debole e

stazionarietà in senso forte coincidono

• Se un processo gaussiano stazionario presenta media

in tal caso è completamente caratterizzato

costante e pari a 0,

dalla matrice delle varianze e covarianze e quindi la conoscenza

del processo equivale alla conoscenza di una funzione

che, se il processo stocastico gode di determinate

momento

proprietà, può essere stimata sulla base dei valori osservati 20

PROCESSI STOCASTICI GAUSSIANI

• Un processo stocastico WN è gaussiano se la distribuzione di

probabilità delle singole v.c. ε è normale per ogni t (incorrelazione tra

t

le variabili) del teorema di Wold,

• Quindi se un WN è gaussiano lo è anche lo Z

t

essendo una combinazione lineare di v.c. indipendenti convergente in

media quadratica

• la famiglia delle ripartizioni finite di un processo stocastico gaussiano

è quindi funzione esclusiva degli ψ e della varianza dei WN: ciò ne

favorirà la specificazione e la stima a partire dai valori osservati in

serie storica

• La normalità del WN non condiziona il teorema di Wold ma è

essenziale per la specificazione univoca del processo lineare

• L’ipotesi di normalità non è una restrizione eccessiva alla classe dei

processi stazionari (generalizzazione del teorema del limite centrale)

21

ERGODICITÀ DI UN PROCESSO STAZIONARIO

• L’ergodicità riguarda il problema di operare inferenza a partire dalla

conoscenza di n osservazioni di n campioni relativi ad n variabili

casuali

• L’ergodicità garantisce che a partire da alcuni dati osservati, sia

possibile fare inferenza su alcuni momenti del processo

• Per i processi stocastici la proprietà dell’ergodicità rappresenta

l’equivalente della proprietà della consistenza per gli stimatori

con riferimento alle variabili casuali (correttezza ed efficienza)

• uno stimatore è consistente se l’accuratezza della stima del parametro

della popolazione aumenta all’aumentare della numerosità

campionaria n, per cui

ˆ

ϑ ϑ ε

− < =

lim Pr( ) 1

→ ∞

n 22

ERGODICITÀ DI UN PROCESSO STAZIONARIO

• Per fare inferenza su alcuni momenti del processo stocastico la

condizione di stazionarietà è necessaria ma non sufficiente

• Le stime del valore atteso, della varianza e della funzione di

autocovarianza di un processo stazionario sono consistenti solo

se tale processo è ergodico )] di un processo stocastico

• Data una funzione momento E[v(X t

stazionario X , tale processo è ergodico se lo stimatore temporale di

t

tale funzione converge in media quadratica a E[v(X )]

ˆ

v ( x )

n t t

2

ˆ

lim E

[ v ( x ) E

[ v ( X )]]

n t t

→ ∞

n 23

ERGODICITÀ DI UN PROCESSO STAZIONARIO

• Quindi un processo stocastico stazionario è ergodico in media

(momento di primo ordine) se

2

ˆ

µ µ

− =

lim E ( ) 0

n

→ ∞

n n

1

µ

ˆ

con x

=

n t

n =

t 1

• Condizione necessaria (teorema ergodico di Slutsky) perché ciò si

verifichi è che la media dell’autocovarianza tenda a 0

n

1 ∑ γ =

lim 0

k

n

→ ∞

n =

k 0 24

ERGODICITÀ DI UN PROCESSO STAZIONARIO

• La condizione implica la precedente e si può accertare

γ =

lim 0

k

→ ∞

n

con maggiore facilità, ma il teorema ergodico di Slutsky vale

anche se l’autocovarianza non tende a 0 al crescere del lag

• Un processo stocastico stazionario normale è ergodico

(varianza e covarianza)

rispetto ai momenti di secondo ordine

se e solo se

n

1 ∑ 2

γ =

lim ( ) 0

k

n

→ ∞

n =

k 0

condizione che si verifica certamente se γ →0 ma più restrittiva

k

del teorema di Slutsky per la media 25

TEMI DELLA LEZIONE

1. Richiami alla precedente lezione

2. Le proprietà degli stimatori

3. L’ergodicità

4. Gli stimatori dei momenti di un processo stocastico

stazionario: le condizioni di ergodicità

5. Gli operatori lineari

6. Cenni alla derivazione dei processi stocastici ARMA a partire

dal teorema di Wold 3

RICHIAMI ALLA PRECEDENTE LEZIONE

• Il teorema di Wold

• I processi stocastici gaussiani

• L’ergodicità dei processi stocastici stazionari: è il tema

dell’ergodicità che connette la lezione precedente a quella di

oggi, poiché quando un processo stocastico stazionario è

ergodico, ciò permette di fare inferenza su alcuni momenti del

processo stocastico. Si può dire che la proprietà dell’ergodicità è

l’equivalente, nel campo dell’analisi delle serie storiche, della

proprietà della consistenza con riferimento alle variabili casuali

• Nella lezione odierna dopo aver ripercorso le proprietà degli

stimatori nell’inferenza classica si passerà agli stimatori dei

momenti di primo e secondo ordine di processi stocastici

stazionari ed ergodici 4

LE PROPRIETÀ DEGLI STIMATORI ϑ̂

• si definisce stimatore di un parametro una

Stimatore:

funzione reale dei valori osservati sulle unità campione c

ˆ

ϑ

• è la stima, ossia il valore che lo stimatore assume in

(

c

)

corrispondenza di un specifico campione c (si avranno quindi

tante stime quanti sono i possibili campioni di una certa

numerosità)

• Se definiamo P(c) la probabilità di estrarre un campione c di

{ }

ˆ

ϑ ( c ), P ( c )

numerosità n, allora definisce l’insieme delle coppie

che costituiscono la distribuzione campionaria dello stimatore 5

LE PROPRIETÀ DEGLI STIMATORI

• Il valore medio dello stimatore rispetto al disegno campionario è

dato da

ˆ ˆ

ϑ ϑ

= ∑

E ( ) P ( c )

c C

• Uno stimatore è se

corretto

ˆ

ϑ ϑ

=

E ( )

• Altrimenti è distorto

ˆ

ϑ ϑ

= −

B E

( )

• Qualunque sia la popolazione, la media campionaria è uno

stimatore corretto di µ, mentre la varianza campionaria è uno

2 (è corretta la varianza campionaria

stimatore distorto di σ

corretta e cioè la varianza campionaria diviso n-1) 6

LE PROPRIETÀ DEGLI STIMATORI

• Parte accidentale e parte sistematica dell’errore di stima

ˆ ˆ

δ ϑ ϑ ϑ

= − +

( ) E

( ) B

• Uno stimatore è se la sua accuratezza è tanto più

consistente

elevata quanto è maggiore la numerosità n del campione (per cui

per n → ∞ lo stimatore fornisce il valore del parametro

incognito) ϑ̂

• Formalmente è uno stimatore consistente se converge in

ϑ

probabilità a

ˆ

ϑ ϑ ε

− < =

lim Pr( ) 1

→ ∞

n 7

LE PROPRIETÀ DEGLI STIMATORI

• La convergenza in probabilità è verificata se

ˆ 2

ϑ ϑ

− =

lim E

[( ) ] 0

→ ∞

n

Ossia se l’errore quadratico medio converge a 0 e ciò avviene se

2 tende a 0

la varianza dello stimatore tende a 0 per n→∞ e B

sempre per n→∞ ˆ ˆˆ

ˆ ϑ̂ ϑ̂

ϑ ϑ

• Dati due stimatori e , è più di se

efficiente

ˆ

ˆ

ϑ

MSE ( ) ≤ 1

ˆ

ϑ

MSE ( ) 8

ERGODICITÀ DI UN PROCESSO STAZIONARIO

• L’ergodicità consente di inferire da una successione di dati osservati

su alcune funzioni momento del processo stocastico

• L’ergodicità si riferisce ad una funzione parametro del processo

stocastico (per esempio media, varianza o covarianza)

• Per i processi stocastici l’ergodicità è la proprietà equivalente a quella

della consistenza per le variabili casuali nell’inferenza classica

• Se si fa riferimento alla funzione media µ =E(X ) la rilevanza

t t

dell’ergodicità dipende dal fatto che l’informazione campionaria

contenuta in ciascuna osservazione in serie storica (ciascuna della

quali è realizzazione di una variabile casuale) possa essere di qualche

utilità per la stima µ (l’ergodicità garantisce che a partire da alcuni dati

t

osservati, sia possibile fare inferenza su alcuni momenti del processo)

9

ERGODICITÀ DI UN PROCESSO STAZIONARIO

• La stazionarietà è molto importante per l’ergodicità ma perché

l’informazione campionaria contenuta in x sia utile per la stima (ad

t

esempio di µt) è necessario che anche l’autocovarianza o

autocorrelazione incontrino un limite e tendano a 0 oltre un certo k

• Le stime del valore atteso, della varianza e della funzione di

autocovarianza di un processo stazionario sono consistenti solo se

tale processo è ergodico )] di un processo stocastico

• Data una funzione momento E[v(X t

stazionario X , tale processo è ergodico se lo stimatore temporale di

t ˆ

v ( x )

tale funzione converge in media quadratica a E[v(X )]

n t t

2

− =

ˆ

lim E

[ v ( x ) E [ v ( X )]] 0

n t t

→ ∞

n

• 10

ERGODICITÀ DI UN PROCESSO STAZIONARIO

• Quindi un processo stocastico stazionario è ergodico in media

(momento di primo ordine) se

2

ˆ

µ µ

− =

lim E ( ) 0

n

→ ∞

n n

1

µ

ˆ x

con =

n t

n =

t 1

• Condizione necessaria (teorema ergodico di Slutsky) perché ciò si

verifichi è che la media dell’autocovarianza tenda a 0

n

1 ∑ γ =

lim 0

k

n

→ ∞

n =

k 0 11

ERGODICITÀ DI UN PROCESSO STAZIONARIO

• La condizione implica la precedente e si può accertare

γ =

lim 0

k

→ ∞

n

con maggiore facilità, ma il teorema ergodico di Slutsky vale

anche se l’autocovarianza non tende a 0 al crescere del lag

• Un processo stocastico stazionario normale è ergodico

(varianza e covarianza)

rispetto ai momenti di secondo ordine

se e solo se

n

1 ∑ 2

γ =

lim ( ) 0

k

n

→ ∞

n =

k 0

condizione che si verifica certamente se γ →0 ma più restrittiva

k

del teorema di Slutsky per la media 12

GLI STIMATORI DEI MOMENTI DI UN PROCESSO STOCASTICO STAZIONARIO:

LE CONDIZIONI DI ERGODICITÀ

• Dai momenti teorici agli stimatori: la media

}, con t=1….n, la realizzazione nota del processo generatore

• sia {X t n

1 ∑

µ =

ˆ

• è stimatore corretto e consistente della media µ

x t

n =

t 1

del processo stocastico per cui e la cui

µ µ

=

ˆ

E [ ]

2 −

n 1

σ r

varianza è data da µ ρ

= + −

ˆ

[ ] [

1 2 (

1 ) ]

Var r

n n

=

r 1

• Perché lo stimatore della media sia consistente, è necessario che la

sua varianza tenda a 0 all’aumentare di n; poiché è evidente che

r

− ∞

n 1 ρ ρ

+ − = +

∑ ∑

lim ( 1 2 ( 1 ) ) 1 2

r r

n

→ ∞

n = =

r 1 r 1 13

GLI STIMATORI DEI MOMENTI DI UN PROCESSO STOCASTICO STAZIONARIO:

LE CONDIZIONI DI ERGODICITÀ

µ

• Allora, affinché =

ˆ

lim Var [ ] 0

→ ∞

n ∞

è sufficiente che ρ < ∞

∑ r

=

r 1

• quindi se ρ =

lim 0

r

→ ∞

n

1 n

allora è consistente

µ̂ = ∑ x t

n =

t 1

• Sussistendo la condizione (di ergodicità rispetto alla media)

ρ =

lim 0

r

n

è possibile stimare la media del processo dai dati osservati,

utilizzando lo stimatore appena analizzato. 14

GLI STIMATORI DEI MOMENTI DI UN PROCESSO STOCASTICO STAZIONARIO:

LE CONDIZIONI DI ERGODICITÀ

• Dai momenti teorici agli stimatori: l’autocovarianza

1 n k

γ µ µ

= − −

ˆ ˆ ˆ

( x )( x )

• è uno stimatore consistente

+

k t t k

n =

t 1 γ

ma distorto di (autocovarianza del processo generatore),

k

sotto condizioni di ergodicità più stringenti di quelle descritte per

la media γ

ˆ

• lo distorsione dello stimatore tende a 0 al crescere di n

k

(perché le stime possano ritenersi soddisfacenti è necessario che

n, il numero di osservazioni disponibili, sia sufficientemente

elevato, almeno >50, e che k sia molto minore di n) 15

GLI STIMATORI DEI MOMENTI DI UN PROCESSO STOCASTICO STAZIONARIO:

LE CONDIZIONI DI ERGODICITÀ

• Se k=0, la formula dello stimatore dell’autocovarianza diverrà la

formula dello stimatore (distorto ma consistente) della varianza

n

1 ∑

2 2

σ γ µ

ˆ

= = −

ˆ ˆ

( x )

t

0 n =

t 1 ρ

• Quindi uno stimatore ragionevole della autocorrelazione k

γ

ˆ

k

ρ

ˆ = ρ

sarà dato da che è a sua volta stimatore distorto di

k k

γ

ˆ 0

di cui è possibile però dimostrare la consistenza. 16

GLI OPERATORI LINEARI

• Teoria degli operatori lineari applicati alle successioni di v.c.:

notevoli semplificazioni

• In generale:

una trasformazione S dallo spazio vettoriale V allo spazio vettoriale

W, entrambi definiti sul campo F, è una trasformazione che associa

ad ogni elemento v є V un unico elemento w є W tale che w =

S(v)

una trasformazione L è lineare se per qualsiasi c є F, (v , v ) є V:

1 2

L(cv + v ) = cL(v ) + L(v )

1 2 1 2

se L è una trasformazione lineare da V a V, allora L è un operatore

lineare in V 17

GLI OPERATORI LINEARI

• L’operatore lineare ritardo B (Backward)

BZ = Z

t t-1 2

BZ = Z → B Z

t-1 t-2 t

k

B Z = Z

t t-k

0

B Z = Z

t t

• Poiché si tratta di un operatore lineare

(a +a B)Z = a Z + a Z

0 1 t 0 t 1 t-1

in generale per operatori polinomiali

2 m

a (B)Z = (a + a B + a B +…..+a B )Z =

m t 0 1 2 m t

+ a Z + a Z +……a Z

= a

0 1 t-1 2 t-2 m t-m 18

GLI OPERATORI LINEARI

• Due operatori sono uguali se, applicati alla medesima funzione,

producono lo stesso risultato

∆Z = Z - Z

t t t-1

poiché Z - Z = Z - BZ =(1 – B) Z

t t-1 t - t t

∆= 1 –B

2 2 2

• Quindi ∆ = (1 – B) = 1 – 2B + B

per cui

2 2 2

∆ Z = (1 – B) Z = (1 – 2B + B )Z = Z – 2Z + Z

t t t t t-1 t-2

quindi, l’operatore differenza di lag s

s s 2 s-1 2

∆ =(1 – B) = (1 – B) (1 + B + B + ….+ B ) = ∆ (1 + B + B +

s-1

….+ B ) 19

GLI OPERATORI LINEARI

• Analogamente avremo l’operatore lineare F (Forward)

FZ = Z

t t+1 - 1

quindi F = B

per cui FB = BF = 1

• Gli operatori lineari obbediscono a tutte le regole dell’algebra

ordinaria per cui è possibile applicare a B ogni manipolazione

algebricamente valida

• Tale proprietà discende la principio che afferma che l’Algebra

degli operatori polinomiali è isomorfa all’algebra dei polinomi 20

GLI OPERATORI LINEARI

• Ritornando alla componente aleatoria nella quale scomponiamo

il processo stocastico stazionario in base al teorema di Wold

∑ j

ψ ε

=

Z B

t j t

=

j 0

• Possiamo scriverlo, utilizzando l’algebra degli operatori lineari,

come 2

=ψ + ψ Bε + ψ B ε +……..

Z

t 0 1 t 2 t

Z = ψ(B)ε

t t

• Sarà proprio l’approssimazione finita dell’operatore lineare ψ(B)

ad introdurci ai modelli ARMA 21

CENNI ALLA DERIVAZIONE DEI PROCESSI STOCASTICI ARMA A PARTIRE DAL

TEOREMA DI WOLD

• La classe dei processi stocastici WN gaussiani

• Modelli ARMA che identificano un processo stazionario ARMA,

caratterizzato dalla funzione di autocovarianza a sua volta

funzione biunivoca dei parametri del modello

• Il problema dell’approssimazione della funzione operatore ψ(B)a

t

mediante un numero finito di coefficienti, verrà impostato a

partire dall’affermazione, derivante dalla teoria

dell’approssimazione numerica delle funzioni mediante polinomi

algebrici, per cui la migliore approssimazione (che rende minimo

l’errore assoluto nell’intervallo dato), a parità di coefficienti

essenziali, la si ottiene mediante polinomi algebrici razionali 22

TEMI DELLA LEZIONE

1. Richiami alla precedente lezione: l’ergodicità

2. Gli operatori lineari

3. Funzione di autocorrelazione e inferenza

4. I processi stocastici AR, MA, ARMA e ARIMA

5. Cenni alle funzioni di autocorrelazione

6. Introduzione all’utilizzo di TRAMO SEATS 3

RICHIAMI ALLA PRECEDENTE LEZIONE: L’ERGODICITA’

• L’ergodicità consente di inferire da una successione di dati osservati

su alcune funzioni momento del processo stocastico

• L’ergodicità si riferisce ad una funzione parametro del processo

stocastico (per esempio media, varianza o covarianza)

• Per i processi stocastici l’ergodicità è la proprietà equivalente a quella

della consistenza per le variabili casuali nell’inferenza classica

• Se si fa riferimento alla funzione µ =E(X ) la rilevanza di questa

t t

proprietà dipende dal fatto che l’informazione campionaria contenuta

in ciascuna osservazione in serie storica (ciascuna della quali è

realizzazione di una variabile casuale) possa essere di qualche utilità

per la stima µ (l’ergodicità garantisce che a partire da alcuni dati

t

osservati, sia possibile fare inferenza su alcuni momenti del processo)

4

RICHIAMI ALLA PRECEDENTE LEZIONE: L’ERGODICITA’

• La stazionarietà è molto importante per l’ergodicità ma perché

l’informazione campionaria contenuta in x sia utile per la stima (ad

t

esempio di µt) è necessario che anche l’autocovarianza o

autocorrelazione incontrino un limite e tendano a 0 oltre un certo k

• Le stime del valore atteso, della varianza e della funzione di

autocovarianza di un processo stazionario sono consistenti solo se

tale processo è ergodico )] di un processo stocastico

• Data una funzione momento E[v(X t

stazionario X , tale processo è ergodico se lo stimatore temporale di

t ˆ

v ( x )

tale funzione converge in media quadratica a E[v(X )]

n t t

2

− =

ˆ

lim E

[ v ( x ) E [ v ( X )]] 0

n t t

→ ∞

n 5

RICHIAMI ALLA PRECEDENTE LEZIONE: L’ERGODICITA’

• Condizione necessaria (teorema ergodico di Slutsky) perché un

processo stocastico sia è che la media

ergodico in media

dell’autocovarianza tenda a 0

n

1 ∑ γ =

lim 0

k

n

→ ∞

n =

k 0 →0 è condizione sufficiente

• La condizione che per k→∞ γ k

perché si verifichi il teorema ergodico di Slutsky 6

RICHIAMI ALLA PRECEDENTE LEZIONE: L’ERGODICITA’

• Un processo stocastico stazionario normale è ergodico rispetto ai

(varianza e autocovarianza) se e solo

momenti di secondo ordine

se n

1 ∑ 2

γ =

lim ( ) 0

k

n

→ ∞

n =

k 0

condizione che risulta interamente verificata se γ →0

k

• Tale condizione si rivela necessaria e sufficiente per qualunque

momento di un processo gaussiano stazionario che, per

definizione, è interamente caratterizzato dalla funzione di

autocovarianza 7

FUNZIONE DI AUTOCORRELAZIONE E INFERENZA

• La funzione di autocorrelazione globale per processi stazionari e

invertibili (e quindi ergodici) converge a zero oppure è pari a zero a

partire da un certo lag

• Nella classe dei processi gaussiani, stazionari, invertibili e di valor

medio nullo, c’è corrispondenza biunivoca tra funzione di

autocovarianza e la famiglia delle ripartizioni finite propria del

processo stocastico

• È quindi possibile specificare il processo stocastico a partire dalla

funzione di autocovarianza

• La funzione di autocovarianza può essere stimata in modo

consistente se il processo è ergodico

• La condizione di invertibilità come condizione della corrispondenza

biunivoca tra funzione di autocovarianza e processo stocastico 8

FUNZIONE DI AUTOCORRELAZIONE E INFERENZA

• La stima della funzione di autocovarianza permette di risalire da

una serie osservata ad una parametrizzazione finita di un

processo stocastico nell’ambito di una determinata classe di

processi stocastici (gaussiani stazionari e invertibili)

• Nell’inferenza classica si risale da singole osservazioni

campionarie al modello probabilistico della popolazione

(variabile casuale generatrice) stimando opportuni parametri

• Nell’inferenza delle serie storiche si risale ad una

parametrizzazione finita di un processo stocastico mediante

un’intera funzione momento stimata sulla base dei dati osservati

in successione temporale 9

GLI OPERATORI LINEARI

• Teoria degli operatori lineari applicati alle successioni di v.c.:

notevoli semplificazioni

• L’operatore (Backward)

lineare ritardo B 2

BZ = Z BZ = Z → B Z

t t-1 ; t-1 t-2 t

k 0

B Z = Z B Z = Z

t t-k ; t t

• Poiché si tratta di un operatore lineare

(a +a B)Z = a Z + a Z

0 1 t 0 t 1 t-1

in generale per operatori polinomiali

2 m

a (B)Z = (a + a B + a B +…..+a B )Z =

m t 0 1 2 m t

= a + a Z + a Z +……a Z

0 1 t-1 2 t-2 m t-m 10

GLI OPERATORI LINEARI

• Due operatori sono uguali se, applicati alla medesima funzione,

producono lo stesso risultato

∆Z = Z - Z

t t t-1

poiché Z - Z = Z - BZ =(1 – B) Z

t t-1 t - t t

∆= 1 –B

2 2 2

• Quindi ∆ = (1 – B) = 1 – 2B + B

per cui

2 2 2

∆ Z = (1 – B) Z = (1 – 2B + B )Z = Z – 2Z + Z

t t t t t-1 t-2

quindi, l’operatore differenza di lag s

s s 2 s-1 2

∆ =(1 – B) = (1 – B) (1 + B + B + ….+ B ) = ∆ (1 + B + B +

s-1

….+ B ) 11

GLI OPERATORI LINEARI

• Analogamente avremo (Forward)

l’operatore lineare F

FZ = Z

t t+1 - 1

quindi F = B

per cui FB = BF = 1

• Gli operatori lineari obbediscono a tutte le regole dell’algebra

ordinaria per cui è possibile applicare a B ogni manipolazione

algebricamente valida

• Tale proprietà discende la principio che afferma che l’Algebra

degli operatori polinomiali è isomorfa all’algebra dei polinomi 12

GLI OPERATORI LINEARI

• Ritornando alla componente aleatoria nella quale scomponiamo

il processo stocastico stazionario in base al teorema di Wold

∑ j

ψ ε

=

Z B

t j t

=

j 0

• Possiamo scriverlo, utilizzando l’algebra degli operatori lineari,

come 2

Z =ψ + ψ Bε + ψ B ε +……..

t 0 1 t 2 t

Z = ψ(B)ε

t t

• Sarà proprio l’approssimazione finita dell’operatore lineare ψ(B)

ad introdurci ai modelli ARMA 13

CENNI ALLA DERIVAZIONE DEI PROCESSI STOCASTICI ARMA A PARTIRE DAL

TEOREMA DI WOLD

• La classe dei processi stocastici WN gaussiani

• Modelli ARMA che identificano un processo stazionario ARMA,

caratterizzato dalla funzione di autocovarianza a sua volta

funzione biunivoca dei parametri del modello

• Nell’analisi numerica l’approssimazione di una funzione continua

in un intervallo può essere ottenuta in diversi modi:

Polinomio di grado finito

Polinomio razionale

Un insieme di funzioni ortogonali 14

CENNI ALLA DERIVAZIONE DEI PROCESSI STOCASTICI ARMA A PARTIRE DAL

TEOREMA DI WOLD

• Il confronto tra le bontà delle approssimazioni va effettuata a

parità di parametri essenziali coinvolti

• La migliore approssimazione di una funzione mediante polinomi

algebrici, a parità di coefficienti, si ottiene con i polinomi razionali

• La componente aleatoria della rappresentazione di un processo

stocastico stazionario basata sul teorema di Wold

∑ ψ ε ε ψε ψε ψ ε

= = + + + =

Z .... ( B )

− − −

t j t j t t 1 t 2 t

=

j 0

• Una conveniente approssimazione dell’operatore lineare ψ(B) può

essere scelta nella classe dei polinomi razionali che coinvolgono

un numero di parametri stimabili dalle osservazioni 15

I PROCESSI STOCASTICI AR, MA, ARMA [PROCESSI MA(Q)]

• Approssimazione di ψ(B) mediante il troncamento della serie di ε al

t

lag q<j (ψj=0 per j>q)

• Operatore lineare ψ(B) approssimato dal polinomio θ(B), per cui

=ψ(B)ε Z =θ(B)ε

Z

t t t t

• Z processo a Media Mobile (Moving Average) di ordine q MA(q)

t

• Zt = ε – θ ε – θ ε – θ ε - …… - θ ε = Z =θ(B)ε

t 1 t-1 2 t-2 3 t-3 q t-q t t

2 q

• θ(B) = 1 - θ B – θ B - …. - θ B = operatore lineare Media Mobile

1 2 q

di ordine q 16

I PROCESSI STOCASTICI AR, MA, ARMA [PROCESSI MA(Q)]

-1

• Anche l’inverso di ψ(B), ψ (B) può essere approssimato dal

-1

polinomio φ(B), cioè ψ(B) è approssimabile da φ (B)

-1

• Z =φ (B)ε

t t

• φ(B)Z =ε

t t

• Z processo a Autoregressivo (Autoregressive) di ordine p AR(p) :

t

φ(B)Z = Z – φ Z – φ Z – φ Z - …… - φ Z = a

t t 1 t-1 2 t-2 3 t-3 p t-p t

2 p

• φ(B) = 1 - φ B – φ B - …. - φ B = operatore lineare

1 2 p

Autoregressivo di ordine p 17

I PROCESSI STOCASTICI AR, MA, ARMA [PROCESSI ARMA(P,Q)]

• La maggior efficienza di un polinomio razionale nell’approssimare

ψ(B) -1

ψ(B) = φ (B) θ(B)

φ(B)Z = θ(B)ε

t t

2 p 2 q

(1 - φ B – φ B - ... - φ B ) Z = (1 - θ B – θ B - ... - θ B )ε

1 2 p t 1 2 q t

-1

• φ (B) θ(B) operatore lineare Autoregressivo Media Mobile

(ARMA) di ordine p,q 2 q

ϑ ϑ ϑ

(1 - B – B - ... - qB )

1 2

-1

(B) θ(B) =

φ 2 p

φ φ φ

(1 - B – B - ... - B )

1 2 p 18

I PROCESSI STOCASTICI AR(P), MA(Q) E ARMA(P,Q)

ARMA (p,0) = AR(p)

ARMA (q,0) = MA(q)

ARMA (p,q)

ARMA (0,0) = AR(0) = MA(0) = WN

• Proprietà stocastiche di un processo ARMA dipendenti dalle

proprietà algebriche degli operatori lineari ed in particolare dalla

natura delle radici delle equazioni caratteristiche θ(B) = 0 e

φ(B) = 0

• le radici del polinomio: l'insieme di quei valori che, sostituiti alle

variabili, danno all'espressione polinomiale il valore nullo

• p(y); la radice è un numero d, tale che p(d)=0 19

I PROCESSI STOCASTICI AR(P), MA(Q) E ARMA(P,Q)

• La condizione di stazionarietà dell’operatore AR φ(B) è che

tutte le radici dell’equazione caratteristica φ(B) = 0 siano in

modulo esterne al cerchio unitario

• La condizione di invertibilità dell’operatore MA θ(B) è che tutte

le radici dell’equazione caratteristica θ(B) = 0 siano in modulo

esterne al cerchio unitario

• Un processo ARMA stazionario e invertibile ammette anche

una rappresentazione MA oppure AR ed è dimostrabile che un

processo AR è sempre invertibile ed una processo MA è

sempre stazionario

• processi ARMA stazionari e invertibili

Processi ammissibili: 20

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

• Funzione di ρ = corr (X , X ) =

autocorrelazione globale k t t-k

γ /γ

k 0

è una misura della correlazione che tiene conto delle

correlazioni corrispondenti a tutti i lag;

• Funzione di φ è una misura della

autocorrelazione parziale kk

correlazione al lag K al netto delle correlazioni a tutti gli altri lag

• L’autocorrelogramma 21

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

1.0 ACF MA(1) con θ>0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6

-0.8

-1.0 1 2 3 4 5 6 7 8 9 10 22

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

1.0 PACF MA(1) con θ>0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6

-0.8

-1.0 1 2 3 4 5 6 7 8 9 10

23

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

1.0 ACF MA(1) con θ<0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6

-0.8

-1.0 1 2 3 4 5 6 7 8 9 10

24

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

1.0 PACF MA(1) con θ<0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6

-0.8

-1.0 1 2 3 4 5 6 7 8 9 10

25

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

1.0 ACF AR(1) con φ<0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6

-0.8

-1.0 1 2 3 4 5 6 7 8 9 10

26

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

1.0 PACF AR(1) con φ<0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6

-0.8

-1.0 1 2 3 4 5 6 7 8 9 10

27

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

1.0 ACF ARMA (1,1) con φ>θ>0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6

-0.8

-1.0 1 2 3 4 5 6 7 8 9 10

28

PRIMI CENNI ALLE FUNZIONI DI AUTOCORRELAZIONE

1.0 PACF ARMA (1,1) con φ>θ>0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6

-0.8

-1.0 1 2 3 4 5 6 7 8 9 10

29

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

Time Series Regression with ARIMA Noise, Missing

Observations and Outliers (TRAMO)

Signal Extractions in Arima Time Series (SEATS)

I temi

1. Il modello utilizzato e lo schema delle operazioni

2. Correzione della serie storica per gli effetti deterministici:

effetti di calendario

dati anomali

utilizzo di regressori esterni

3. Stima dei valori mancanti (missing values)

4. Scomposizione della serie storica 30

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS:

1. IL MODELLO UTILIZZATO E LO SCHEMA DELLE OPERAZIONI

Il teorema di Wold

la serie (1) = w + z

y t t t

stazionaria in covarianza è sempre scomponibile:

in una parte deterministica (w )

t

Σβ

= x

(2) w

t i it

ed una parte stocastica

che si ipotizza segua un modello ARIMA stagionale

s d s D s

ϕ(B)Φ(B θ(B)ϑ(B

)(1-B) (1-B ) z = )a

(3) t t 31

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS:

1. IL MODELLO UTILIZZATO E LO SCHEMA DELLE OPERAZIONI

poiché in base alla (1) e alla (2)

Σβ

(4) z = y - x

t t i it

possiamo riformulare la (3) come segue

s d s D s

ϕ(B)Φ(B

(5) )(1-B) (1-B ) (y -Σβ x )=θ(B)ϑ(B )a

t i it t

guardando la (5),

TRAMO opera secondo la sequenza operativa 32

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS:

1. IL MODELLO UTILIZZATO E LO SCHEMA DELLE OPERAZIONI

a) Stima dei valori mancanti (missing values) Σβ

b) Stima degli effetti deterministici contenuti in x

i it

l’effetto giorni lavorativi

l’effetto Pasqua

i valori anomali

eventuali regressori esterni (e.g. holidays, dummies)

β stimati mediante la massima verosimiglianza

i 33

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS:

1. IL MODELLO UTILIZZATO E LO SCHEMA DELLE OPERAZIONI

c) Depurazione di y dagli effetti deterministici ottenendo in tal modo

t

z (4) la serie linearizzata che verrà trasferita a SEATS per la

t

scomposizione

d) Riduzione a stazionarietà di z mediante l’applicazione d e D volte

t

di = 1-B d s D

(6) v = (1-B) (1-B ) z

t t

e) Stima di un modello ARMA su v utilizzando il metodo della

t

massima verosimiglianza 34

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS:

1. IL MODELLO UTILIZZATO E LO SCHEMA DELLE OPERAZIONI

i parametri che vengono inseriti nelle

stringhe nelle ultime righe del file di input,

istruiscono TRAMO perché esegua la

sequenza operativa prima descritta 35

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

2. CORREZIONE DELLA SERIE STORICA PER GLI EFFETTI DETERMINISTICI

a) effetti di calendario

Giorni lavorativi (trading days)

Festività mobili (Easter effect)

Festività nazionali (Holidays; e.g.: 25 aprile in Italia)

b) dati anomali

c) utilizzo di regressori esterni per la correzione

per altri effetti deterministici (variabili dummy) 36

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

2. CORREZIONE DELLA SERIE STORICA PER GLI EFFETTI DETERMINISTICI

a) effetti di calendario: giorni lavorativi

due approcci possibili

metodo proporzionale

(applicazione di un coefficiente al dato del mese i-esimo; per le serie

con riferimento a produzioni a lavorazione discontinua dato dal

rapporto tra il numero medio di giorni lavorativi mensili dell’anno

base ed il numero di giorni lavorativi del mese i-esimo;

metodo di regressione 37

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

2. CORREZIONE DELLA SERIE STORICA PER GLI EFFETTI DETERMINISTICI

Metodo di regressione: il procedimento di TRAMO

giorni della settimana nel mese

T (X , X , X , X , X , X ,X )

1t 2t 3t 4t 5t 6t 7t

un regressore (X +X +X +X +X )-5/2(X +X )

1t 2t 3t 4t 5t 6t 7t

due regressori (al precedente si aggiunge un regressore che

assume valore 0,75 per i febbraio degli anni bisestili, -0,25 per i

febbraio degli altri anni e 0 per tutti gli altri mesi)

sei regressori (X -X ), (X -X ), (X -X ), (X - X ) (X -X )

1t 7t 2t 7t 3t 7t 4t 7t 5t 7t

- X )

(X 6t 7t

sette regressori (sei regressori più effetto anno bisestile) 38

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

2. CORREZIONE DELLA SERIE STORICA PER GLI EFFETTI DETERMINISTICI

Indice della produzione industriale: dati grezzi e corretti per trading days

130

120

110

100 Dec-01; 97.2

90 Dec-01; 94.0

80

70

60

50 original corrected by trading day effects

40 Mar-01 May-01 Mar-02 May-02

Mar-00 May-00 Nov-01

Sep-01

Jan-01 Jul-01

Nov-00

Nov-99 Sep-00

Sep-99 Jan-02

Jan-00 Jul-02

Jul-00

Jul-99 39

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

2. CORREZIONE DELLA SERIE STORICA PER GLI EFFETTI DETERMINISTICI

a) effetti di calendario: festività mobili

Effetto Pasqua

correzione mediante dummy variable con valore:

per tutti i mesi che non risentono dell’effetto

0 Pasqua

j 1 per quei mesi che contengono j giorni che

_

_ _ risentono dell’effetto Pasqua

n 2 40

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

2. CORREZIONE DELLA SERIE STORICA PER GLI EFFETTI DETERMINISTICI

Indice della produzione industriale: dati grezzi e corretti per trading

days e Easter effect

120

115

110

105 Apr-02; 102.7

Apr-02; 100.3

100 Apr-02; 99.5

original

95 corrected by trading day effects

corrected by trading day and easter effects

90 May-02

Mar-02

Feb-02 Apr-02

Jan-02 Jun-02 Jul-02

41

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

2. CORREZIONE DELLA SERIE STORICA PER GLI EFFETTI DETERMINISTICI

a) effetti di calendario: festività nazionali

Indice della produzione industriale: dati grezzi e corretti per trading

days, Easter effect e festività nazionali

120

115

110

105 Apr-02; 103.7

Apr-02; 102.7

Apr-02; 100.3

100 Apr-02; 99.5

95 original corrected by trading day effects

corrected by trading day and easter effects corrected by TD, Easter and holiday effects

90 May-02

Mar-02

Feb-02 Apr-02

Jan-02 Jun-02 Jul-02

42

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

2. CORREZIONE DELLA SERIE STORICA PER GLI EFFETTI DETERMINISTICI

b) Correzione per i dati anomali (outlier)

(Additive Outlier; sciopero)

AO

(Transitory Change; evento straordinario che produce un lento

TC

recupero della normalità; sciopero dagli effetti prolungati)

(Level Shift; eventi le cui conseguenze provocano cambiamenti

LS

duraturi; un cambiamento nella legislazione fiscale)

(Innovative Outlier; effetto dipendente dall’ARIMA generatore

IO

della serie; utilizzo controverso) 43

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

2. CORREZIONE DELLA SERIE STORICA PER GLI EFFETTI DETERMINISTICI

Indice della produzione industriale dei beni intermedi: effetti stimati

dovuti a valori anomali

7 Ls

6

5 Ao

4

3 tc

2

1

0 Jan-92 Jan-93 Jan-94 Jan-95 Jan-96 Jan-97 Jan-98 Jan-99 Jan-00

Jul-92 Jul-93 Jul-94 Jul-95 Jul-96 Jul-97 Jul-98 Jul-99 Jul-00 Jan-01 Jul-01

44

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

2. CORREZIONE DELLA SERIE STORICA PER GLI EFFETTI DETERMINISTICI

Un esempio di cambi di livello nella serie storica degli indici dei prezzi al

consumo delle bevande alcoliche e tabacchi

130

125

120

115

110

105

100 May-01

May-96 May-97 May-98 May-99 May-00 May-02

Jan-01

Jan-96 Jan-97 Jan-98 Jan-99 Jan-00 Jan-02

Sep-01

Sep-96 Sep-97 Sep-98 Sep-99 Sep-00 45

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

2. CORREZIONE DELLA SERIE STORICA PER GLI EFFETTI DETERMINISTICI

c) utilizzo di regressori esterni

Effetti deterministici che influenzano la serie identificati

utilizzando variabili individuate dall’utente

Holidays

Imposizione di outlier

Intervention analysis: dummy variables (variabile

binaria) 46

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

3. STIMA DEI VALORI MANCANTI (MISSING VALUES)

Due approcci adottati da Tramo:

• skipping approach:

– Kalman filter per il calcolo della funzione di verosimiglianza

– stima di massima verosimiglianza dei parametri del modello

ARIMA e conseguente stima dei missing values

• inserimento di valori arbitrari e stima del modello ARIMA con

outlier AO 47

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

3. STIMA DEI VALORI MANCANTI (MISSING VALUES)

I risultati dei due metodi differiscono quando i parametri del

modello ARIMA sono ignoti (Gomez et al., 1999)

Quando i parametri ARIMA sono ignoti, i risultati dei due

metodi sono equivalenti qualora il numero di osservazioni

mancanti sono al massimo il 5%

Quando il numero di valori mancanti è tra il 5 e il 20%,

l’approccio di stima del modello ARIMA con outlier AO

appare più preciso ma meno veloce dello skipping approach 48

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

3. STIMA DEI VALORI MANCANTI (MISSING VALUES)

OZONE LEVEL L.A. (BOX-TIAO)

216 1955 1 12

2.7 2.0 -99999. 5.0 6.5 6.1 5.9 5.0 6.4 7.4 8.2 3.9

4.1 4.5 5.5 3.8 4.8 5.6 6.3 5.9 -99999. 5.3 5.7 5.7

3.0 3.4 4.9 4.5 4.0 5.7 6.3 7.1 8.0 5.2 5.0 4.7

3.7 3.1 -99999. 4.0 4.1 4.6 -99999. 4.2 5.1 4.6 4.4 4.0

2.9 2.4 4.7 5.1 4.0 7.5 7.7 6.3 5.3 5.7 4.8 2.7

1.7 2.0 3.4 4.0 4.3 5.0 5.5 5.0 5.4 3.8 2.4 2.0

2.2 2.5 2.6 3.3 2.9 4.3 4.2 4.2 3.9 3.9 2.5 2.2

2.4 1.9 2.1 4.5 3.3 3.4 4.1 5.7 4.8 5.0 2.8 2.9

1.7 3.2 2.7 3.0 3.4 3.8 5.0 4.8 4.9 3.5 2.5 2.4

1.6 2.3 2.5 3.1 -99999. 4.5 5.7 5.0 4.6 4.8 2.1 1.4

2.1 2.9 2.7 4.2 3.9 4.1 4.6 5.8 4.4 6.1 3.5 1.9

1.8 1.9 3.7 4.4 3.8 5.6 5.7 5.1 5.6 -99999. 2.5 1.5

1.8 2.5 2.6 1.8 3.7 3.7 4.9 5.1 3.7 5.4 3.0 1.8

2.1 2.6 2.8 3.2 3.5 3.5 4.9 4.2 4.7 3.7 3.2 1.8

2.0 -99999. 2.8 3.2 4.4 3.4 3.9 5.5 3.8 3.2 2.3 2.2

1.3 2.3 2.7 3.3 3.7 3.0 3.8 4.7 4.6 2.9 1.7 1.3

1.8 2.0 2.2 3.0 2.4 3.5 3.5 3.3 2.7 2.5 1.6 1.2

1.5 2.0 3.1 3.0 3.5 -99999. 4.0 3.8 3.1 2.1 1.6 1.3

$INPUT NPRED=36,LAM=1,IREG=3,INTERP=2,IMEAN=0,P=1,Q=0,D=0,$ 49

INTRODUZIONE ALL’UTILIZZO DI TRAMO SEATS

4. SCOMPOSIZIONE DELLA SERIE STORICA

TRAMO - SEATS

TRAMO

TRAMO

SERIE LINEARIZZATA

SERIE LINEARIZZATA

SEATS

SEATS

SCOMPOSIZIONE (canonica) serie destagionalizzata

SCOMPOSIZIONE (canonica) serie destagionalizzata

ciclo trend componente stagionale

ciclo trend componente stagionale

componente irregolare

componente irregolare 50

TEMI DELLA LEZIONE

1. Richiami alla precedente lezione

2. Le funzioni di autocorrelazione (ACF e sue proprietà;

richiami al calcolo matriciale; PACF; stimatori)

3. Introduzione all’utilizzo di TRAMO SEATS

(si vedano le diapositive della lezione del 14 aprile) 3

RICHIAMI ALLA PRECEDENTE LEZIONE

• La funzione di autocorrelazione globale per processi stazionari e

invertibili ed ergodici converge a zero oppure è pari a zero a partire

da un certo lag

• Nella classe dei processi gaussiani, stazionari, invertibili e di valor

medio nullo, c’è corrispondenza biunivoca tra funzione di

autocovarianza e la famiglia delle ripartizioni finite propria del

processo stocastico

• È quindi possibile specificare il processo stocastico a partire dalla

funzione di autocovarianza

• La funzione di autocovarianza può essere stimata in modo

consistente se il processo è ergodico

• La condizione di invertibilità come condizione della corrispondenza

biunivoca tra funzione di autocovarianza e processo stocastico 4

RICHIAMI ALLA PRECEDENTE LEZIONE

• La stima della funzione di autocovarianza permette di risalire da

una serie osservata ad una parametrizzazione finita di un

processo stocastico nell’ambito di una determinata classe di

processi stocastici (gaussiani stazionari e invertibili)

• Nell’inferenza classica si risale da singole osservazioni

campionarie al modello probabilistico della popolazione

(variabile casuale generatrice) stimando opportuni parametri

• Nell’inferenza delle serie storiche si risale ad una

parametrizzazione finita di un processo stocastico mediante

un’intera funzione momento stimata sulla base dei dati osservati

in successione temporale 5

RICHIAMI ALLA PRECEDENTE LEZIONE

• Funzione di autocorrelazione globale ρ = corr (X , X ) =

k t t-k

γ /γ

k 0

è una misura della correlazione che tiene conto delle

correlazioni corrispondenti a tutti i lag;

• Funzione di autocorrelazione parziale φ è una misura della

kk

correlazione al lag K al netto delle correlazioni a tutti gli altri lag

• L’autocorrelogramma 6

LE FUNZIONI DI AUTOCORRELAZIONE: LA FUNZIONE DI

AUTOCORRELAZIONE GLOBALE

• Funzione di autocorrelazione globale di un processo stazionario

µ µ γ

E X X

[( )( )]

− −

t t k k

− =

ρ = corr (X , X ) =

k t t-k 2

µ γ

E X

[( ) ]

t 0

è il coefficiente di correlazione tra le variabili casuali X e X

t t-k

calcolato al variare di k = 0,1,2;

• La funzione di autocorrelazione globale tiene conto delle

correlazioni a tutti i ritardi; incorpora anche la correlazione

ρ 3

tra X e X , tra X e X , tra X e X , tra X e X , tra X e

t t-1 t-1 t-2 t-2 t-3 t t-2 t-1

X t-3 7

LE FUNZIONI DI AUTOCORRELAZIONE: LA FUNZIONE DI

AUTOCORRELAZIONE GLOBALE

• Le proprietà della funzione di autocorrelazione globale di un

processo stazionario

1. ρ = 1

0

2. =

ρ ρ

k -k

è una funzione simmetrica (tale proprietà discende

dalla stazionarietà del processo, per cui, nel caso in

cui γ = E(X X ) = E(X X ) = E(X X ) = γ

k t t-k t-k t t t+k -k

3. |ρ | ≤ 1 dal momento che si dimostra o attraverso la

k

disuguaglianza di Schwartz o attraverso lo sviluppo

2 2

γ γ

in forma quadratica matriciale di γ che

k k 0 8

LE FUNZIONI DI AUTOCORRELAZIONE: LA FUNZIONE DI

AUTOCORRELAZIONE GLOBALE

[la disuguaglianza di Schwarz afferma che date due variabili

casuali X e Y, dotate dei momenti di primo e secondo

2 2 2

ordine [E(XY)] ≤ E(X ) E(Y ); applicata alle variabili

2 2 2

casuali scarto, afferma che σ xy ≤ σ xσ y]

4. la funzione di autocorrelazione è invariante in modulo per

qualunque trasformazione lineare del processo stocastico

(proprietà direttamente vincolata alla caratteristica propria

di ρ, che è una misura del legame lineare tra le variabili)

5. la matrice di Toeplitz (matrice di autocorrelazione di ordine

m) è simmetrica rispetto alle due diagonali, ha tutte le

diagonali con elementi comuni, ed è sempre semi definita

positiva (tutti i minori principali sono non negativi) 9

LE FUNZIONI DI AUTOCORRELAZIONE: LA FUNZIONE DI

AUTOCORRELAZIONE GLOBALE

 

ρ ρ ρ m

1 (

1

) (

2

).... ( 1

)

 

ρ ρ m

(

1

) 1 ( 2

)

 

Ρ =

m

( )  

... ... ... ...

 

ρ ρ

 

m m

( 1

) ( 2

) ... 1

− −

La funzione di autocorrelazione di un processo stocastico

stazionario si caratterizza quindi per avere la matrice di

Toeplitz semidefinita positiva 10

LE FUNZIONI DI AUTOCORRELAZIONE: LA FUNZIONE DI

AUTOCORRELAZIONE GLOBALE

6. se ρ (k) è la funzione di autocorrelazione globale di un

processo stazionario, esiste una funzione f(ω), definita tra

– π e + π e tale che

f(ω) ≥ 0

π

+

∫ ω ω

f d

( ) 1

=

π

e che è data da

 

1 ∑

ω ρ ω

f k

( ) 1 2 cos( )

= +

 

k

 

π

2 k =1

che rappresenta la funzione di densità spettrale di un

processo stazionario. La proprietà 6 è la proprietà 5

trasferita nel dominio delle frequenze, rilevante poiché più

semplice da verificare rispetto alla proprietà della matrice

di Toeplitz (semidefinita positiva) 11


ACQUISTATO

2 volte

PAGINE

215

PESO

1.40 MB

AUTORE

Sara F

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in economia e commercio
SSD:
Università: Firenze - Unifi
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Sara F di informazioni apprese con la frequenza delle lezioni di Statistica economica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Firenze - Unifi o del prof Buzzigoli Lucia.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Statistica economica

Statistica economica - i modelli di regressione
Dispensa
Statistica economica - serie storiche
Appunto
Statistica economica - Appunti
Appunto
Statistica economica - Appunti
Appunto