vuoi
o PayPal
tutte le volte che vuoi
17. VARIANZA DI PREVISIONE (VARIANZA DELL’ERRORE DI PREVISIONE) E SIGNIFICATO DEGLI INTERVALLI DI
PREVISIONE:
La rappresentazione MA(∞) è utile ai fini del calcolo della varianza dell’errore di previsione.
Infatti, se il processo è stazionario e a media nulla ammette la rappresentazione a media mobile.
+ℎ ̂
L’errore di previsione è dato da: −
+ℎ +ℎ
̂ ̂
( − ) = 0 ( − ) =
I momenti sono: +ℎ +ℎ +ℎ +ℎ
L a varianza dell’errore di previsione converge alla varianza del modello
̂ ̂
se( − )
L’intervallo di previsione è: ±
+ℎ /2 +ℎ +ℎ
Il significato dell’intervallo di previsione è che la previsione che ho fatto ha intorno un intervallo nel quale al 95% dei
casi si troverà il valore vero.
La condizione del teorema di Wold assicura che: ℎ
Da ciò segue che: 0 La previsione per → ∞ converge alla media del processo
[]
Se è un processo stazionario a media nulla si ha: = 0
[]
Se è un processo stazionario a media non nulla si ha: =
18. ANALISI DEI RESIDUI E VERIFICA DELLA BONTÀ DEL MODELLO:
Il modello identificato e stimato, deve essere sottoposto alla fase di verifica:
1. Verifica della significatività dei parametri stimati per eliminare eventuali parametri ridondanti: utilizzando la
classica statistica test T di Student eliminiamo quei parametri per cui t rientra nell’intervallo di accettazione
dell’ipotesi nulla di “non significatività del parametro” (intervallo: −2 ≤ t ≤ 2).
A parità di parametri non significativi, scegliamo il modello che presenta un valore dell’AIC minimo.
Questo algoritmo si basa sul criterio parsimoniosità, ossia sulla considerazione che una struttura statistica di
crescente complessità dev’essere compensata da un notevole miglioramento nella capacità di rappresentare i
dati. A parità di adeguatezza, preferiremo il modello più semplice, ossia quello con una misura AIC minima.
2. Test sui residui per verificarne la natura white noise (test Portmanteau) e la normale distribuzione:
Fissiamo come ipotesi nulla che “ogni coefficiente di autocorrelazione sia uguale a zero”, contro l’alternativa
che “qualche coefficiente di autocorrelazione risulti significativamente diverso da zero” e, quindi, conduca al
rifiuto dell’ipotesi che i residui siano realizzazioni di un processo white noise.
Dopodichè, tramite il Jarque Bera Test valutiamo se il p-value è sufficientemente grande da farci concludere
che i residui siano normalmente distribuiti (testnorm() su R).
19. I MODELLI ARMA STAGIONALI:
I modelli ARMA stagionali sono in grado di catturare le periodicità che si evidenziano nella serie, al fine di permettere
una più accurata previsione della serie stessa. S
In generale, un processo ARMA stagionale si indica con la sigla ARMA(P,Q) , dove P rappresenta l’ordine della
componente autoregressiva stagionale, Q è l’ordine della componente a media mobile stagionale, mentre s indica la
periodicità stagionale.
Formalizzazione del processo autoregressivo stagionale: S
Una serie storica è detta generata da un processo autoregressivo stagionale del primo ordine AR(1) se il valore
corrente può essere espresso come una funzione lineare del valore verificatosi s periodi prima (Es: s=12 serie mensili).
S ⋯
La formula generale per un processo AR(P) risulta: = + + + +
−s −2s −s
1 2
S
Il calcolo delle funzioni le ACF e PACF per un processo AR(P) è uguale a quello effettuato per un processo AR(p).
Formalizzazione del processo di media mobile stagionale: S
Una serie storica è detta generata da un processo a media mobile stagionale del primo ordine MA(1) se il valore
corrente può essere rappresentato dal disturbo corrente e dal disturbo occorso s periodi prima.
S ⋯
La formula generale per un processo MA(Q) risulta: = − – − −
−s −2s −s
1 2
S
Il calcolo delle funzioni le ACF e PACF per un processo MA(Q) è uguale a quello effettuato per un processo MA(q).
Formalizzazione del processo misto stagionale: S
Una serie storica è detta generata da un processo misto stagionale del prim’ordine: ARIMA(0,0,0)(1,0,1) , se il valore
corrente può essere espresso come una funzione lineare del valore e del disturbo verificatisi s periodi prima.
S
La formula generale per un ARIMA(0,0,0)(1,0,1) è: ⋯ ⋯
= + + + + − – − −
−s −2s −s −s −2s −s
1 2 1 2
Le funzioni ACF e PACF dei processi stagionali seguono le stesse regole dei processi non stagionali.
20. LA NON STAZIONARIETÀ IN MEDIA E IN VARIANZA:
La gran parte delle serie storiche economiche presentano un andamento chiaramente di tipo non stazionario.
Tale non stazionarietà si manifesta spesso sia per quanto riguarda la media della serie, che non è costante per tutto
l’intervallo di osservazione (presenza di trend: ossia una variazione del livello della serie in esame), sia a proposito
della sua varianza, che varia in funzione del tempo t.
Per far fronte a questi problemi, è stata formalizzata una classe di modelli utili per il trattamento di serie reali: ARIMA.
La non stazionarietà in media:
Analiticamente la non stazionarietà di un processo si manifesta quando una o più radici del polinomio che rappresenta
la parte AR del processo, sono in valore assoluto uguali a 1.
Utilizzeremo le differenze prime per rimuovere la non stazionarietà in media relativa ad un trend e le differenze
stagionali per rimuovere la non stazionarietà in media relativa alla presenza di stagionalità (componente evolutiva).
Un modello ARMA(p,q) il cui operatore AR è fattorizzabile, è definito modello autoregressivo integrato a media mobile
ed è indicato con la sigla ARIMA(p,d,q).
La non stazionarietà in varianza:
La non stazionarietà in varianza per una serie storica è desunta dal fatto che la sua variabilità non è costante nel
tempo. Generalmente non è facile eliminare tale tipo di non stazionarietà.
La ricerca di una trasformazione ottimale può essere impostata in modo tale che sia la serie storica a rivelare quale le
si adegui maggiormente. Il metodo che viene più usato è la “trasformazione Box-Cox”.
La trasformazione Box-Cox include tutte le trasformazioni che generalmente si attuano: logaritmica ( = 0), inversa
≅
( = −1), radice quadrata ( = 0.5) ed elevamento al quadrato ( = 2). Se 1 la trasformazione non è necessaria.
Il valore ottimale di può essere determinato:
1. Utilizzando i dati rilevati e massimizzando la verosimiglianza sotto l’ipotesi di normalità
(), ,
2. Riportando su un grafico diverse funzioni calcolate utilizzando un opportuno numero di parametri
scelti all’interno di un appropriato intervallo e scegliendo quel parametro che rende massima la funzione in
oggetto. Costruisco il grafico “media-scarto quadratico medio” per la serie originale e interpolo i dati con la
funzione che viene ritenuta più adatto ai dati stessi
21. DIFFERENZE PRIME E DIFFERENZE STAGIONALI: A COSA SERVONO E QUANDO SI USANO
Le differenze prime: rimuovono la non stazionarietà in media relativa ad un trend
Le differenze stagionali: rimuovono la non stazionarietà in media relativa alla stagionalità
22. TREND STOCASTICI E TREND DETERMINISTICI DIFFERENZE DI DEFINIZIONE: ().
Supponiamo che il livello medio della serie sia ben rappresentato da una funzione deterministica del tempo
()
La funzione identifica un trend deterministico, ovvero un processo stazionario attorno ad una funzione che può
().
essere di tipo lineare, esponenziale, polinomiale, a seconda della forma scelta per
I modelli caratterizzati da una componente che varia nel tempo in modo aleatorio, presentano invece un trend
stocastico. Essi possono essere di due tipi:
• Processi a radice unitaria (Es: random walk)
• Processi a radice unitaria intorno ad una funzione deterministica del tempo (Es: random walk con drift)
La stazionarietà di una serie con trend deterministico si ottiene tramite detrendizzazione (sottraendo alla serie il trend
deterministico g(t)). La stazionarietà di una serie con trend stocastico si ottiene invece tramite differenziazione.
23. RANDOM WALK E RANDOM WALK CON DRIFT:
Random Walk: 2
()
Ponendo la funzione deterministica del tempo = 0 e gli errori dei WN(0, ) si ottiene il processo random walk:
=1
∑
= + …e sostituendo ricorsivamente fino a = 0 si ottiene: = +
−1 0
−
[ ] = [ ] = () = ( − ) () =
2 2
Momenti: 0
Per qualunque fissato e per → ∞ la funzione di autocorrelazione tende a uno: il processo è perfettamente
autocorrelato e possiede, di conseguenza, memoria infinita. La varianza, la funzione di autocovarianza e la funzione di
autocorrelazione cambiano al variare di t: il processo random walk non è stazionario.
Random Walk con Drift: 2
() ∈
Ponendo la funzione deterministica del tempo = e gli errori dei WN(0, ) si ottiene il processo random
=1
∑
walk con drift. = + + …e sostituendo ricorsivamente fino a = 0 si ottiene: = + +
−1
0
()
L’inserimento di una funzione = costante, induce la presenza di un trend lineare deterministico nel processo
oltre al trend stocastico. −
[ ] = + [ ] = () = ( − ) () =
2 2
Momenti: 0
La varianza, la funzione di autocovarianza e la funzione di autocorrelazione cambiano al variare di t: il processo
random walk con drift non è stazionario. Nel caso di random walk e di random walk con drift è sufficiente applicare
una volta l’operatore differenza per ottenere un processo