Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Serie Storiche - Processo Stocastico
Def: Un processo stocastico è una famiglia di variabili casuali indicizzate da tempo; {Z(t,ω)} con ω ∈ Ω (spazio campionario) e E = famiglia di indici
Indice che indica il tempo:
- t fisso: ζ= ^ t Z (t,ω) è una variabile casuale
- ω fisso: γ ω = ^ Z (t,ω) è una traiettoria o realizzazione
Serie Storiche: Singola realizzazione di un processo stocastico
Processo Stocastico: Traiettorie (serie storiche)
Sezioni dove traiettorie (v.c.) successione ordinata di v.c.
Utilizzeremo la nostra traiettoria per fare inferenza se il processo stocastico gode di:
- Ergodicità ➔ riproduzione ed estensione i risultati da una generica realizzazione al processo
- Stazionarietà ➔ invarianza rispetto ad una traslazione arbitraria lungo l'asse dei tempi
Stazionarietà
{Zt1, Zt2, ..., Ztm} ➔ insieme di v.c dal processo stocastico Z (t,ω); t: t=0, ± t1, ± t2...
- Il processo è stazionario se:
Funzione di ripartizione multidimensionale F (Zt1, ..., Ztm) = F (Zt1+k, ..., Ztm+k) ∀ k ∈ N (1)
- Stazionarietà in senso stretto: se la condizione scritta sopra vale ∀ m ➔ troppo forte come condizione; possibile da verificare
● Funzione media :
Mt = E [Zt]
● Funzione varianza:
Ot2 = E [Zt - Mt] 2
● Funzione di autocovarianza :
γ (t1, t2) = E [Zt1 - Mt1] [Zt2 - Mt2]
Covarianza fra due serie storiche
● Funzione di autocorrelazione :
ρ (t1, t2) = γ (t1, t2) / √Ot12 √Ot22
Correlazione fra due serie storiche
● Stazionario in senso debole :
Se tutti i suoi momenti congiunti (stazionarità in congiunti) fino all’ordine m ≤ sono invarianti rispetto a t0
● Stazionario del secondo ordine se ha media e cov. costanti.
Oss : La stazionarietà in senso stretto implica la stazionarietà in senso debole se i momenti fino all’ordine 2 sono finiti
Nel P.S
- Mb = M
- E [Zt2] < ∞ , Ot2 = O2
- ∀ t
b) Siccome la stazionarietà in senso stretto implica (1) :
γ (t1, t2) = γ (t1 + k, t2 + k) = ∀k
ρ (t1, t2) = ρ (t1 + k, t2 + k) = ρk
Questo vuol dire che un processo stazionario con i primi due momenti finiti ha autocon e autocor. che dipendono solo dall'intervallo di tempo k.
Oss : Un processo stocastico è gaussiano se la distribuzione congiunta é normale ⇒ stazionarietà forte = stazionarietà debole
Funzione di Autocorrelazione Campionaria
- Per un processo gaussiano stazionario e per T grande la distribuzione approssima ad una N, dove
- Per i processi in cui per k > m, approx. di Barlett
- E si ottiene il seguente S.E.
- L'approssimazione di Barlett si usa a testare l'ipotesi che le autocorrelazioni siano nulle
- Per testare un processo white noise:
⚠️ I software plottano le linee per I.C.; se l'istogramma esce vuol dire che è significativamente non nulla
Funzione di Autocorrelazione Parziale
- Si trova tramite metodo di Durbin (no determinanti) supponendo un processo sottostante white noise: quindi metodo di verifica uguale
AR(2)
AR(2): [1 - ϕ1 B - ϕ2 B2] Zt = at
Zt = ϕ1 Zt-1 + ϕ2 Zt-2 + at
Invertibilità
AR(2) risulta sempre invertibili, è stazionario se:
- |ϕ2 + ϕ1| < 1
- |ϕ2 - ϕ1| < 1
- |ϕ2| < 1
- |d2| < 1
Momenti
E[Zt] = 0
Var: γ0 = ϕ1 γ1 + ϕ2 γ2 + σ2a
Autocov: γk = ϕ1 γk-2 + ϕ2 γk-2
Autocorr: ρk = ϕ1 ρk-1 + ϕ2 ρk-2
- k = 1
ρ1 = ϕ1 + ϕ2 ρ1 ⇒ ρ1 = ϕ1 / (1 - ϕ2)
- k = 2
ρ2 = ϕ1 ρ1 + ϕ2 ⇒ ρ2 = (ϕ12 + ϕ2 - ϕ22) / (1 - ϕ2)
Oss.
1) Autocorrelazione decresce in maniera esponenziale per radici reali e in maniera sinusoide per radici complesse
2) Autocor. parziale si annulla dopo il 2° lag.
- RAPPRESENTAZIONE DI UN MODELLO MA IN ARMA(1,1):
Zt= Ψ(B)at ⇨ dove Ψ(B) = (1-Θ1B)/(1-ΦB)at
- DA CUI NE RICAVO:
Ψs = Φ1s-1(Φ1 - Θ1)
- AUTOCORREZIONE E AUTOCOVARIANZA
- MOLTIPLICO IL MODELLO ARMA PER Zt-k E CON IL VALORE ATTESO ARRIVIAMO A:
γk = Φ1γk-1 + ε[t-k at] - Θ ε[t-k at+1]
- k = 0
γ0 = Φ1γ1 + σa2 - Θ1(Φ1 - Θ1)σa2
- k = 1
γ1 = Φ1γ0 - Θ1σa2
DA CUI γ0 = ((1+Θ12 - 2Θ1Φ1)σa2)/(1-Φ12)
γ1 = ((Φ1 - Θ1)(1-Φ1Θ1))/(1-Φ12))σa2
- k ≥ 2
γk = Φ1γk-1
ρk =
- (Φ1 - Θ1)(1-Φ1Θ1)/σa(1+Θ12 - 2 Φ1Θ1) for k=1
- Φ1ρk-1 for k ≥ 2
- AUTOCORREZIONE PARZIALE
- HA ANDAMENTO SMORZATO, MA NON CALCOLABILE IN QUANTO TROPPO COMPLICATO
Varianza e Autocovarianza Moduli Arima
- Un processo stazionario in media può non essere stazionario in varianza e cov.
- Un processo non stazionario in media è sicuramente non stazionario in varianza.
Caso: IMA(1,1), riferimento t0 per t > t0
Zt = Zt0 + at + (1-θ)at-1 + ... + (1-θ)at0+1 - θat0
Zt-k = Zt0 + at-k + (1-θ)at-k-1 + ... + (1-θ)at0+1 - θat0
Quindi:
- Var(Zt) = [1 + (t-t0-1)(1-θ)2] σa2
- Var(Zt-k) = [1 + (t-t0-k-1)(1-θ)2] σa2
- cov(Zt-k, Zt) = [1-θ+(t-t0-k-1)(1-θ)2] σa2
- corr(Zt-k, Zt) = [cov(Zt-k, Zt)] / [√Var(Zt-k) √Var(Zt)]
Osservazioni:
- La varianza del processo Arima dipende da t e Var(Zt) ≠ Var(Zt-k) se k ≠ 0
- La Var(Zt) è illimitata se t → ∞
- cov e corr dipendono da t ≠ non sono invarianti rispetto alla traslazione su t
- Se t0 ≫ k, corr(Zt-k, Zt) ≈ 1
Nel caso in cui la non stazionarietà in varianza e covarianza dipenda solo dalla non stazionarietà in media, possiamo rifarci ad un modello stazionario in covarianza con la diff. appropriata e dunque determinando l'andamento del processo sulla base dei parametri AR e MA φ, θ e dalla varianza del white noise.