Anteprima
Vedrai una selezione di 10 pagine su 44
Serie Storiche - appunti generali Pag. 1 Serie Storiche - appunti generali Pag. 2
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Serie Storiche - appunti generali Pag. 6
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Serie Storiche - appunti generali Pag. 11
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Serie Storiche - appunti generali Pag. 16
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Serie Storiche - appunti generali Pag. 21
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Serie Storiche - appunti generali Pag. 26
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Serie Storiche - appunti generali Pag. 31
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Serie Storiche - appunti generali Pag. 36
Anteprima di 10 pagg. su 44.
Scarica il documento per vederlo tutto.
Serie Storiche - appunti generali Pag. 41
1 su 44
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Serie Storiche - Processo Stocastico

Def: Un processo stocastico è una famiglia di variabili casuali indicizzate da tempo; {Z(t,ω)} con ω ∈ Ω (spazio campionario) e E = famiglia di indici

Indice che indica il tempo:

  • t fisso: ζ= ^ t Z (t,ω) è una variabile casuale
  • ω fisso: γ ω = ^ Z (t,ω) è una traiettoria o realizzazione

Serie Storiche: Singola realizzazione di un processo stocastico

Processo Stocastico: Traiettorie (serie storiche)

Sezioni dove traiettorie (v.c.) successione ordinata di v.c.

Utilizzeremo la nostra traiettoria per fare inferenza se il processo stocastico gode di:

  1. Ergodicità ➔ riproduzione ed estensione i risultati da una generica realizzazione al processo
  2. Stazionarietà ➔ invarianza rispetto ad una traslazione arbitraria lungo l'asse dei tempi

Stazionarietà

{Zt1, Zt2, ..., Ztm} ➔ insieme di v.c dal processo stocastico Z (t,ω); t: t=0, ± t1, ± t2...

  • Il processo è stazionario se:

Funzione di ripartizione multidimensionale F (Zt1, ..., Ztm) = F (Zt1+k, ..., Ztm+k) ∀ k ∈ N (1)

  • Stazionarietà in senso stretto: se la condizione scritta sopra vale ∀ m ➔ troppo forte come condizione; possibile da verificare

● Funzione media :

Mt = E [Zt]

● Funzione varianza:

Ot2 = E [Zt - Mt] 2

● Funzione di autocovarianza :

γ (t1, t2) = E [Zt1 - Mt1] [Zt2 - Mt2]

Covarianza fra due serie storiche

● Funzione di autocorrelazione :

ρ (t1, t2) = γ (t1, t2) / √Ot12Ot22

Correlazione fra due serie storiche

● Stazionario in senso debole :

Se tutti i suoi momenti congiunti (stazionarità in congiunti) fino all’ordine m ≤ sono invarianti rispetto a t0

● Stazionario del secondo ordine se ha media e cov. costanti.

Oss : La stazionarietà in senso stretto implica la stazionarietà in senso debole se i momenti fino all’ordine 2 sono finiti

Nel P.S

  1. Mb = M
  2. E [Zt2] < ∞ , Ot2 = O2
  3. ∀ t

b) Siccome la stazionarietà in senso stretto implica (1) :

γ (t1, t2) = γ (t1 + k, t2 + k) = ∀k

ρ (t1, t2) = ρ (t1 + k, t2 + k) = ρk

Questo vuol dire che un processo stazionario con i primi due momenti finiti ha autocon e autocor. che dipendono solo dall'intervallo di tempo k.

Oss : Un processo stocastico è gaussiano se la distribuzione congiunta é normale ⇒ stazionarietà forte = stazionarietà debole

Funzione di Autocorrelazione Campionaria

  • Per un processo gaussiano stazionario e per T grande la distribuzione approssima ad una N, dove
  • Per i processi in cui per k > m, approx. di Barlett
  • E si ottiene il seguente S.E.
  • L'approssimazione di Barlett si usa a testare l'ipotesi che le autocorrelazioni siano nulle
  • Per testare un processo white noise:

⚠️ I software plottano le linee per I.C.; se l'istogramma esce vuol dire che è significativamente non nulla

Funzione di Autocorrelazione Parziale

  • Si trova tramite metodo di Durbin (no determinanti) supponendo un processo sottostante white noise: quindi metodo di verifica uguale

AR(2)

AR(2): [1 - ϕ1 B - ϕ2 B2] Zt = at

Zt = ϕ1 Zt-1 + ϕ2 Zt-2 + at

Invertibilità

AR(2) risulta sempre invertibili, è stazionario se:

  • 2 + ϕ1| < 1
  • 2 - ϕ1| < 1
  • 2| < 1
  • |d2| < 1

Momenti

E[Zt] = 0

Var: γ0 = ϕ1 γ1 + ϕ2 γ2 + σ2a

Autocov: γk = ϕ1 γk-2 + ϕ2 γk-2

Autocorr: ρk = ϕ1 ρk-1 + ϕ2 ρk-2

- k = 1

ρ1 = ϕ1 + ϕ2 ρ1 ⇒ ρ1 = ϕ1 / (1 - ϕ2)

- k = 2

ρ2 = ϕ1 ρ1 + ϕ2 ⇒ ρ2 = (ϕ12 + ϕ2 - ϕ22) / (1 - ϕ2)

Oss.

1) Autocorrelazione decresce in maniera esponenziale per radici reali e in maniera sinusoide per radici complesse

2) Autocor. parziale si annulla dopo il 2° lag.

  • RAPPRESENTAZIONE DI UN MODELLO MA IN ARMA(1,1):

Zt= Ψ(B)at ⇨ dove Ψ(B) = (1-Θ1B)/(1-ΦB)at

  • DA CUI NE RICAVO:

Ψs = Φ1s-11 - Θ1)

  • AUTOCORREZIONE E AUTOCOVARIANZA
  • MOLTIPLICO IL MODELLO ARMA PER Zt-k E CON IL VALORE ATTESO ARRIVIAMO A:

γk = Φ1γk-1 + ε[t-k at] - Θ ε[t-k at+1]

  • k = 0

γ0 = Φ1γ1 + σa2 - Θ11 - Θ1a2

  • k = 1

γ1 = Φ1γ0 - Θ1σa2

DA CUI γ0 = ((1+Θ12 - 2Θ1Φ1a2)/(1-Φ12)

γ1 = ((Φ1 - Θ1)(1-Φ1Θ1))/(1-Φ12))σa2

  • k ≥ 2

γk = Φ1γk-1

ρk =

  • 1 - Θ1)(1-Φ1Θ1)/σa(1+Θ12 - 2 Φ1Θ1) for k=1
  • Φ1ρk-1 for k ≥ 2

  • AUTOCORREZIONE PARZIALE
  • HA ANDAMENTO SMORZATO, MA NON CALCOLABILE IN QUANTO TROPPO COMPLICATO

Varianza e Autocovarianza Moduli Arima

  • Un processo stazionario in media può non essere stazionario in varianza e cov.
  • Un processo non stazionario in media è sicuramente non stazionario in varianza.

Caso: IMA(1,1), riferimento t0 per t > t0

Zt = Zt0 + at + (1-θ)at-1 + ... + (1-θ)at0+1 - θat0

Zt-k = Zt0 + at-k + (1-θ)at-k-1 + ... + (1-θ)at0+1 - θat0

Quindi:

  • Var(Zt) = [1 + (t-t0-1)(1-θ)2] σa2
  • Var(Zt-k) = [1 + (t-t0-k-1)(1-θ)2] σa2
  • cov(Zt-k, Zt) = [1-θ+(t-t0-k-1)(1-θ)2] σa2
  • corr(Zt-k, Zt) = [cov(Zt-k, Zt)] / [√Var(Zt-k) √Var(Zt)]

Osservazioni:

  • La varianza del processo Arima dipende da t e Var(Zt) ≠ Var(Zt-k) se k ≠ 0
  • La Var(Zt) è illimitata se t → ∞
  • cov e corr dipendono da t ≠ non sono invarianti rispetto alla traslazione su t
  • Se t0 ≫ k, corr(Zt-k, Zt) ≈ 1

Nel caso in cui la non stazionarietà in varianza e covarianza dipenda solo dalla non stazionarietà in media, possiamo rifarci ad un modello stazionario in covarianza con la diff. appropriata e dunque determinando l'andamento del processo sulla base dei parametri AR e MA φ, θ e dalla varianza del white noise.

Dettagli
A.A. 2019-2020
44 pagine
SSD Scienze economiche e statistiche SECS-P/01 Economia politica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher matteobaldanza di informazioni apprese con la frequenza delle lezioni di Serie storiche e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Milano - Bicocca o del prof Zavanella Biancamaria.