Anteprima
Vedrai una selezione di 14 pagine su 63
Previsione serie storiche applicando la foresta casuale Pag. 1 Previsione serie storiche applicando la foresta casuale Pag. 2
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Previsione serie storiche applicando la foresta casuale Pag. 6
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Previsione serie storiche applicando la foresta casuale Pag. 11
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Previsione serie storiche applicando la foresta casuale Pag. 16
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Previsione serie storiche applicando la foresta casuale Pag. 21
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Previsione serie storiche applicando la foresta casuale Pag. 26
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Previsione serie storiche applicando la foresta casuale Pag. 31
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Previsione serie storiche applicando la foresta casuale Pag. 36
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Previsione serie storiche applicando la foresta casuale Pag. 41
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Previsione serie storiche applicando la foresta casuale Pag. 46
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Previsione serie storiche applicando la foresta casuale Pag. 51
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Previsione serie storiche applicando la foresta casuale Pag. 56
Anteprima di 14 pagg. su 63.
Scarica il documento per vederlo tutto.
Previsione serie storiche applicando la foresta casuale Pag. 61
1 su 63
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Z

t

sentato nella forma ∞

X

= +

Z ψ a k

t j t−j t

j=0

∞ 2

P

dove = 1 e ∞ e il termine è un white noise che rappresenta

ψ ψ < a

0 t

j

j=0

l’errore nel prevedere sulla base di una funzione lineare di Z ritardate:

Z t ≡ − |Z )

a Z Ê(Z , Z , . . .

t t t t−1 t−2

Il valore di è incorrelato con per ogni j, e k può essere previsto senza er-

k a

t t−j

rore da una funzione lineare dei valori passati di Z : = |Z

k Ê(k , Z , ...).

t t t−1 t−2

La componente k è chiamata componente deterministica in senso lineare

P

mentre è la componente non deterministica in senso lineare. Se k è

ψ a

j t−j

j=0

nulla, si dirà che il processo è puramente non deterministico in senso lineare,

o più semplicemente che è un processo lineare puramente stocastico.

3.4.3 Processo MA

La scomposizione di Wold dice che ogni processo stazionario puramente stoca-

stico può essere rappresentato come combinazione lineare di una successione

di variabili casuali incorrelate: ∞

X

= + + + + = +

Z µ a ψ a ψ a ... µ ψ a

t t 1 t−1 2 t−2 j t−j

j=0

2 2

P

dove = 1, ∼ (0, ) e ∞.

ψ a W N σ ψ <

0 t a j

j=0

Tale rappresentazione viene anche chiamata a media mobile (Moving Ave-

rage, da cui MA), perchè somiglia ad una media temporale ponderata dei

valori della variabile .

a t

La rappresentazione MA contiene un numero infinito di parametri che è

impossibile stimare, perciò nel modellare i fenomeni osservati ci si rifà al

modello MA di ordine finito.

Si pone = per i q e = 0 per ottenendo cosı̀ un processo MA

ψ θ ψ i > q,

6

j i i

di ordine finito q, MA(q): 17

Un processo MA(q) è una sequenza di variabili casuali che può essere scritta

nella forma q

X

= =

Z θ a C(B)a

t i t−i t

i=0

dove C(B) è un polinomio di ordine q nell’operatore ritardo e è un White

a t

Noise. Generalmente, e senza perdita di generalità, si pone = = 1.

C(0) θ 0

Se C(B) è un polinomio di grado q, si dice anche che è un processo MA(q),

Z

t

‚ ƒ

che si legge processo MA di ordine q .

Esaminando i suoi momenti: per quanto riguarda il momento primo, si ha

q q

X X

) = = ) = 0

E(Z E θ a θ E(a

t i t−i i t−i

i=0 i=0

Per quanto riguarda la varianza, il fatto che il momento primo sia nullo,

consente di scriverla come il momento secondo, ossia

q 2

X

2

) = ) =

V ar(Z E(Z E θ a

t i t−i

t i=0

Sviluppando il quadrato, si può scomporre la somma in due parti distinte

q q q

2

X X X X

2 2

= +

θ a θ a θ θ a a

i t−i i j t−i t−j

i t−i

i=0 i=0 i=0 j6 = i

Dovrebbe essere ovvio, dalla proprietà del White Noise, che il valore atteso

della seconda sommatoria è nullo, cosicché

q q q q

X X X X

2 2 2 2 2 2 2 2 2

) = = ) = =

E(Z E θ a θ E(a θ σ σ θ

t i t−i i t−i i i

i=0 i=0 i=0 i=0

q 2

P

che ha valore finito se ∞, cosa sempre vera se q è finito.

θ <

i

i=0

Dopo aver studiato valore atteso e varianza, al fine di analizzare un pro-

cesso MA, cosı̀ come per lo studio generale di processi stocastici stazionari e

18

non stazionari, si calcola l’autocovarianza (γ ) e l’autocorrelazione (ρ )

k k

) = − − − − )

E(Z Z E[(a θ a θ a . . . θ a

t−k t t−k 1 t−k−1 2 t−k−2 q t−k−q

×(a − − − − )]

θ a θ a . . . θ a

t 1 t−1 2 t−2 q t−q

2 2 2

2 )

+ +

= + + . . . θ θ a

E(−θ a θ θ a θ θ a q q−k

k k+1 1 k+2 2 t−q

t−k−2

t−k t−k−1

2 (−θ + + + ) = 1, 2,

σ θ θ . . . θ θ k . . . , q

k 1 k−1 q−k q

a

=

γ

k 0 k>q

(−θ + + + )

θ θ . . . θ θ

k 1 k−1 q−k q

= 1, 2,

k . . . , q

2

= 2

(1 + + + )

ρ θ . . . θ

k 1 q 0 k>q

L’ACF si annulla dopo il lag q, mentre la PACF decresce con andamento

che dipende dalla natura delle radici. Se vi sono radici complesse la PACF

conterrà onde sinusoidali. La PACF di un processo MA(q) si presenta in

forma piuttosto complicata a seconda dell’ordine del processo, perciò non è

stata generata. In linea di massima la PACF ricorda la ACF di un processo

AR.

Tanto per avere un’idea più concreta, si prende un processo MA(1) di esem-

pio e si fa un grafico: se il processo è = + , l’andamento di per

Z a θa Z

t t t−1 t

diversi valori di è rappresentato nelle figure sottostanti.

θ

Figura 1: MA(1): = 0 (white noise) Figura 2: MA(1): = 0.6

θ θ

Naturalmente, quando =0 (come nella figura a sinistra) il processo è un

θ

White Noise. Come si vede, al crescere di le caratteristiche di persisten-

θ

‚ ƒ

za divengono più visibili (la serie si smussa ) e la sua varianza (misurata

19

approssimativamente dall’ordine di grandezza delle ordinate) aumenta. Si-

mulando un processo MA di ordine superiore, la cosa sarebbe stata ancor più

evidente.

3.4.4 Processo AR

Un’altra importante classe di processi è data dai processi AR. Questi pro-

cessi forniscono, in un certo senso, una rappresentazione più intuitiva di una

serie persistente di quella dei processi MA, poiché l’idea è che il livello della

serie al tempo t sia una funzione lineare dei propri valori passati, più un

White Noise. Si dice allora che il processo può essere scritto in forma AU-

TOREGRESSIVA poichè un modello AR somiglia molto ad un modello di

regressione in cui le variabili esplicative sono i valori passati della variabile

dipendente: = + + +

Z π Z π Z . . . a

t 1 t−1 2 t−2 t

in questo caso la rappresentazione è autoregressiva di ordine infinito: AR(∞).

Non è ozioso notare che, in questo contesto, il White Noise può essere inter-

a t

pretato in modo analogo al disturbo di un modello di regressione, cioè come

la differenza fra e la sua media condizionale; in questo caso, le variabili

Z

t

casuali che costituiscono l’insieme di condizionamento sono semplicemente

il passato di . I processi AR sono in un certo senso speculari ai processi

Z t

MA perché, se un processo MA è un processo definito dall’applicazione di

un polinomio nell’operatore B ad un White Noise, un processo AR è definito

come un processo l’applicazione al quale di un polinomio nell’operatore B

produce un White Noise.

∞ j

P

Definendo = 1 − B si può riscriverla come

π(B) π j

j=1 =

π(B)Z a

t t

P

dove 1 + |π | ∞. Un processo che può essere scritto in questa forma si

<

j

j=1

dice anche invertibile (Box e Jenkins, 1976). Non tutti i processi stazionari

sono invertibili: affinchè un processo lineare = sia invertibile le

Z ψ(B)a

t t

radici di = 0 come funzione di B devono giacere al di fuori del cerchio

ψ(B)

unitario.

Un processo AR è dunque sempre invertibile. Per quanto riguarda la sta-

zionarietà, un processo AR è stazionario se le radici dell’equazione π(B)

giacciono al di fuori del cerchio unitario.

La rappresentazione AR cosı̀ come visto in precedenza con una rappresenta-

zione MA, contiene un numero infinito di parametri che è impossibile stimare,

20

perciò nel modellare i fenomeni osservati ci si rifà al modello AR di ordine

finito. Si otterrà quindi un AR di ordine p, AR(p), ponendo = per i ≤

π φ

i i

p e = 0 per i p:

φ >

i − − − − =

Z φ Z φ Z . . . φ Z a

t 1 t−1 2 t−2 p t−p t

Esaminando i suoi momenti:

Nel caso preso in considerazione in cui si sta studiando un AR(p) stazionario,

la media è nulla, per come è stato definito

) = 0

E(Z

t

Per un processo con media nonnulla del tipo

= + + + + +

Z c φ Z φ Z . . . φ Z a

t 1 t−1 2 t−2 p t−p t

Il momento primo equivale a: c

=

µ 1 − − − −

φ φ . . . φ

1 2 p

Per trovare la funzione di autocorrelazione parziale si moltiplica l’espressione

di per a sinistra e a destra e si prende il valore atteso, trovando cosı̀

Z Z

t t−k

per k 0 le cosiddette equazioni di Yule-Walker:

> = + + +

γ φ γ φ γ . . . φ γ

k 1 k−1 2 k−2 p k−p

= + + +

ρ φ ρ φ ρ . . . φ ρ

k 1 k−1 2 k−2 p k−p

Mentre per k=0 si ricava la varianza: 2

= + + + +

γ φ γ φ γ . . . φ γ σ

0 1 1 2 2 p p a

Dunque autocovarianze e autocorrelazioni seguono la stessa equazione al-

le differenze di ordine p che soddisfa il processo stesso: l’andamento delle

autocorrelazioni è definito dalle soluzioni di tale equazione, per ogni k 0:

>

2 p

(B)ρ = (1 − B − B − − B )ρ = 0

φ φ φ . . . φ

p k 1 2 p k

l’ACF si spegne come mistura di esponenziali o di onde sinusoidali smorza-

ρ k

te, a seconda della natura delle radici, mentre la funzione di autocorrelazione

parziale si annulla dopo il p-esimo lag.

Come per il processo MA(q), per avere un’idea più concreta, si prende un

processo AR(1) di esempio e si fa un grafico: se il processo è = + ,

Z a φZ

t t t−1

l’andamento di per diversi valori di è rappresentato nelle figure sotto-

Z φ

t

stanti. 21

Figura 3: AR(1): = 0 (white noise) Figura 4: AR(1): = 0.6

φ φ

La figura di sinistra non rappresenta altro che il White Noise già presentato

come esempio sui processi MA(1). Applicando a questo White Noise l’ope-

−1

ratore (1 − , con = 0.6. Anche in questo caso, si nota un aumento

φB) φ

delle caratteristiche di persistenza all’aumentare del parametro (φ in questo

caso), anche se qui è molto più evidente.

3.4.5 Processo ARMA

La classe dei

Dettagli
Publisher
A.A. 2016-2017
63 pagine
SSD Scienze economiche e statistiche SECS-S/03 Statistica economica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Pagani21 di informazioni apprese con la frequenza delle lezioni di Machine learning, serie storiche, previsioni con modelli ARIMA e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Milano - Bicocca o del prof Fattore Marco.