Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
SERIE STORICHE - PROCESSO STOCASTICO
Def. Un processo stocastico è una famiglia di variabili casuali indicizzate da tempo;
Indice che indica il tempo:
t fissato: t è una variabile casuale
ω fissato: ω è una traiettoria o realizzazione
Serie Storiche: Singola realizzazione di un processo stocastico
Processo Stocastico → Traiettorie (serie storica) →Sezioni dove trattenute (v.c.) → Successione ordinata di v.c.
Utilizzeremo la nostra traiettoria per fare inferenza se il processo stocastico gode di:
- Ergodicità → Riprodcucibili ed estensibili i risultati da una generica realizzazione al processo
- Stazionarietà → Invarianza rispetto ad una traslazione arbitraria lungo l'asse dei tempi
Stazionarietà
{t1, t2, ..., tm} → Insieme di v.c. dal processo stocastico t, t = 0, ±t1, ±t2
- Il processo è stazionario se:
Funzione di ripartizione multidimensionale F[t1, ..., tm] = F[t1+k, ..., tm+k] ∀k ∈ ℕ (1)
- Stazionarietà in senso stretto: Se la condizione scritta sopra vale ∀m
- Troppo forte come condizione: impossibile da verificare
• Funzione media:
Mt = E[ Zt ]
• Funzione varianza:
O2t = E[ (Zt - Mt)2 ]
• Funzione di autocovarianza:
γ(t1, t2) = E[ (Zt1 - Mt1) (Zt2 - Mt2) ]
Covarianza fra due serie storiche
• Funzione di autocorrelazione:
ρ(t1, t2) = γ(t1,t2)/√( O2t1 O2t2)
Correlazione fra due serie storiche
• Stazionario in senso debole: se tutti i suoi momenti congiunti
(stazionarità in congiunto) fino all'ordine m ≥ 3 sono invarianti rispetto a t0
• Stazionario del secondo ordine se ha media e cov. costanti.
Oss.: la stazionarità in senso stretto implica la stazionarità in
senso debole se i momenti fino all'ordine 2 sono finiti
consegueto 1nel P.S
| Mb = M
| E[Z2] < ∞, O2t = O2
| ∀t
b) Siccome la stazionarietà in senso stretto implica (1)
γ(t1, t2) = γ(t1+k, t2+k) - ∀k
ρ(t1, t2) = ρ(t1+k, t2+k) = ρk
Questo vuol dire che un processo stazionario con i primi due momenti finiti ha autocon e autocor. che dipendono solo dall'intervallo di tempo k.
Oss.: Un processo stocastico è gaussiano se la distribuzione congiunta è normale ⇒ stazionarità forte = stazionarità debole
Funzione di autocorrelazione campionaria
K
- Per un processo gaussiano stazionario e per T grande la distribuzione approx a una ove appross.:
- Per i processi in cui , per K > m, approx. di Barlett
- E si ottiene il seguente S.E.
L'approssimazione di Barlett si usa a testare l'ipotesi che le autocorrelazioni siano nulle
- Per testare un processo white noise:
⟹ I software plottano le linee per I.C.; se l'istogramma esce vuol dire che è significativamente non nulla
Funzione di autocorrelazione parziale
- Si trova tramite metodo di Durbin (no determinanti) supponendo un processo sottostante white noise:
- Quindi metodo di verifica uguale a
AR(2)
AR(2): (1 - φ1 B - φ2 B2) zt = at
zt = φ1 zt-1 + φ2 zt-2 + at
- Invertibilità: AR(2) risulta sempre invertibile, è stazionario se:
- φ2 + φ1 < 1
- φ2 - φ1 < 1
- |φ2| < 1
Momenti:
E[zt] = 0
Var: γ0 = φ1 γ1 + φ2 γ2 + σa2
Autocov: γk = φ1 γk-1 + φ2 γk-2
Autocorr: ρk = φ1 ρk-1 + φ2 ρk-2
- k = 1
- ρ1 = φ1 + φ2 ρ1 ⇒ ρ1 = φ1 / (1 - φ2)
- k = 2
- ρ2 = φ1 ρ1 + φ2 ⇒ ρ2 = (φ12 + φ2 - φ22) / (1 - φ2)
Oss.:
- 1) Autocorrelazione decresce in maniera esponenziale per radici reali e in maniera sinusoïdale per radici complesse
- 2) Autocor. parziale si annulla dopo il 2o lag.
- RAPPRESENTAZIONE DI UN MODELLO MA IN ARMA (p, q):
Zt=ψ(B)at ψ(B)= (1-Θ1B) / (1-φB) at
DA CUI NE RICAVO:
ψs = φ1s-1 (φ1 - Θ1)
- AUTOCORREZIONE & AUTOCOVARIANZA.
- —MOLTIPLICO IL MODELLO ARMA PER Zt-k E CON IL VALORE ATTESO ARRIVIAMO A:
- k=0
- k=1
- k≥2
- | (φ1 - Θ1)(1 - φ1Θ1) / σ2 - 2φ1Θ1 k=1 — DIPENDE SIA DAIPARAMETRI AR CHE MA
- | φ1ρk-1 k≥2
γk = φ1γk-2 + E[Zt-kat] - Θ1E[Zt-k-1at-1]
γ0 = φ1γ1 + σ22 - Θ1(φ1 - Θ1)σ22
γ1 = φ1γ0 - Θ1σa2
DA CUI γ0 = (1 + Θ12 - 2φ1Θ1) / (1 - φ12) σa2
γ1 = (φ1 - Θ1)(1 - φ1Θ1) / (1 - φ12) σa2
γk = φ1γk-1
ρk =
- AUTOCORRELAZIONE PARZIALE
- HA ANDAMENTO SMORZATO , MA NON CALCOLABILE IN QUANTO TROPPO COMPLETTO
VARIANZA E AUTOCOVARIANZA MODULI ARIMA
- UN PROCESSO STAZIONARIO IN MEDIA PUÒ NON ESSERE STAZIONARIO IN VARIANZA & CON.
- UN PROCESSO NON STAZIONARIO IN MEDIA È SICURAMENTE NON STAZIONARIO IN VARIANZA.
- CASO IMA (1,1) RIFERIMENTO t₀ PER t>t₀
Zₜ = Zₜ₀ + aₜ + (1-θ)aₜ₋₁ + … + (1-θ)a₀₊₁ - θa₀ₜ₀
Zₜ₋ₖ = Zₜ₀ + aₜ₋ₖ + (1-θ)aₜ₋ₖ₋₁ + … + (1-θ)a₀ₜ + θa₀ₜ₀
QUINDI:
Var (Zₜ) = [1 + (t-t₀-1)(1-θ)²] σₐ²
Var (Zₜ₋ₖ) = [1 + (t-t₀-ₖ-1)(1-θ)²] σₐ²
cov (Zₜ₋ₖ₊₁, Zₜ) = [1-θ + (t-t₀-ₖ-1)(1-θ)²] σₐ²
corr (Zₜ₋ₖ₊₁, Zₜ) = - cov (Zₜ₋ₖ₊₁, Zₜ) / √(Var (Zₜ₋ₖ) * Var (Zₜ))
OSSERVAZIONI:
- LA VARIANZA DEL PROCESSO ARIMA DIPENDE DA t E Var (Zₜ) ≠ Var (Zₜ₋ₖ) SE k≠0
- LA Var (Zₜ) È ILLIMITATA SE t → ∞
- COV E CORR DIPENDONO DA t - NON SONO INVARIANTI RISPETTO ALLA TRASLAZIONE SU t
- SE t₀ >> k , CORR (Zₜ₋ₖ₊₁, Zₜ) ≈ 1
-NEL CASO IN CUI LA NON STAZIONARIETÀ IN VARIANZA & COVARIANZA DIPENDA SOLO DALLA NON STAZIONARIETÀ IN MEDIA, POSSIMO RIFARCI AD UN MODELLO STAZIONARIO IN COVARIANZA CON LA DIFF. APPROPRIATA E DUNQUE DETERMINANDO L'ANDAMENTO DEL PROCESSO SULLA BASE DEI PARAMETRI AR₁ e MA φ₁ , θ e DUA VARIANZA DEL WHITE NOISE