Anteprima
Vedrai una selezione di 10 pagine su 76
Serie storiche: appunti generali+ domande esame con risposte complete Pag. 1 Serie storiche: appunti generali+ domande esame con risposte complete Pag. 2
Anteprima di 10 pagg. su 76.
Scarica il documento per vederlo tutto.
Serie storiche: appunti generali+ domande esame con risposte complete Pag. 6
Anteprima di 10 pagg. su 76.
Scarica il documento per vederlo tutto.
Serie storiche: appunti generali+ domande esame con risposte complete Pag. 11
Anteprima di 10 pagg. su 76.
Scarica il documento per vederlo tutto.
Serie storiche: appunti generali+ domande esame con risposte complete Pag. 16
Anteprima di 10 pagg. su 76.
Scarica il documento per vederlo tutto.
Serie storiche: appunti generali+ domande esame con risposte complete Pag. 21
Anteprima di 10 pagg. su 76.
Scarica il documento per vederlo tutto.
Serie storiche: appunti generali+ domande esame con risposte complete Pag. 26
Anteprima di 10 pagg. su 76.
Scarica il documento per vederlo tutto.
Serie storiche: appunti generali+ domande esame con risposte complete Pag. 31
Anteprima di 10 pagg. su 76.
Scarica il documento per vederlo tutto.
Serie storiche: appunti generali+ domande esame con risposte complete Pag. 36
Anteprima di 10 pagg. su 76.
Scarica il documento per vederlo tutto.
Serie storiche: appunti generali+ domande esame con risposte complete Pag. 41
1 su 76
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

SERIE STORICHE - PROCESSO STOCASTICO

Def. Un processo stocastico è una famiglia di variabili casuali indicizzate da tempo;

Indice che indica il tempo:

t fissato: t è una variabile casuale

ω fissato: ω è una traiettoria o realizzazione

Serie Storiche: Singola realizzazione di un processo stocastico

Processo Stocastico → Traiettorie (serie storica) →Sezioni dove trattenute (v.c.) → Successione ordinata di v.c.

Utilizzeremo la nostra traiettoria per fare inferenza se il processo stocastico gode di:

  1. Ergodicità → Riprodcucibili ed estensibili i risultati da una generica realizzazione al processo
  2. Stazionarietà → Invarianza rispetto ad una traslazione arbitraria lungo l'asse dei tempi

Stazionarietà

{t1, t2, ..., tm} → Insieme di v.c. dal processo stocastico t, t = 0, ±t1, ±t2

  • Il processo è stazionario se:

Funzione di ripartizione multidimensionale F[t1, ..., tm] = F[t1+k, ..., tm+k] ∀k ∈ ℕ (1)

  • Stazionarietà in senso stretto: Se la condizione scritta sopra vale ∀m
  • Troppo forte come condizione: impossibile da verificare

• Funzione media:

Mt = E[ Zt ]

• Funzione varianza:

O2t = E[ (Zt - Mt)2 ]

• Funzione di autocovarianza:

γ(t1, t2) = E[ (Zt1 - Mt1) (Zt2 - Mt2) ]

Covarianza fra due serie storiche

• Funzione di autocorrelazione:

ρ(t1, t2) = γ(t1,t2)/√( O2t1 O2t2)

Correlazione fra due serie storiche

• Stazionario in senso debole: se tutti i suoi momenti congiunti

(stazionarità in congiunto) fino all'ordine m ≥ 3 sono invarianti rispetto a t0

• Stazionario del secondo ordine se ha media e cov. costanti.

Oss.: la stazionarità in senso stretto implica la stazionarità in

senso debole se i momenti fino all'ordine 2 sono finiti

consegueto 1nel P.S

| Mb = M

| E[Z2] < ∞, O2t = O2

| ∀t

b) Siccome la stazionarietà in senso stretto implica (1)

γ(t1, t2) = γ(t1+k, t2+k) - ∀k

ρ(t1, t2) = ρ(t1+k, t2+k) = ρk

Questo vuol dire che un processo stazionario con i primi due momenti finiti ha autocon e autocor. che dipendono solo dall'intervallo di tempo k.

Oss.: Un processo stocastico è gaussiano se la distribuzione congiunta è normale ⇒ stazionarità forte = stazionarità debole

Funzione di autocorrelazione campionaria

K

  • Per un processo gaussiano stazionario e per T grande la distribuzione approx a una ove appross.:
  • Per i processi in cui , per K > m, approx. di Barlett
  • E si ottiene il seguente S.E.

L'approssimazione di Barlett si usa a testare l'ipotesi che le autocorrelazioni siano nulle

  • Per testare un processo white noise:

⟹ I software plottano le linee per I.C.; se l'istogramma esce vuol dire che è significativamente non nulla

Funzione di autocorrelazione parziale

  • Si trova tramite metodo di Durbin (no determinanti) supponendo un processo sottostante white noise:
  • Quindi metodo di verifica uguale a

AR(2)

AR(2): (1 - φ1 B - φ2 B2) zt = at

zt = φ1 zt-1 + φ2 zt-2 + at

  • Invertibilità: AR(2) risulta sempre invertibile, è stazionario se:
    • φ2 + φ1 < 1
    • φ2 - φ1 < 1
    • 2| < 1

Momenti:

E[zt] = 0

Var: γ0 = φ1 γ1 + φ2 γ2 + σa2

Autocov: γk = φ1 γk-1 + φ2 γk-2

Autocorr: ρk = φ1 ρk-1 + φ2 ρk-2

  • k = 1
  • ρ1 = φ1 + φ2 ρ1 ⇒ ρ1 = φ1 / (1 - φ2)
  • k = 2
  • ρ2 = φ1 ρ1 + φ2 ⇒ ρ2 = (φ12 + φ2 - φ22) / (1 - φ2)

Oss.:

  • 1) Autocorrelazione decresce in maniera esponenziale per radici reali e in maniera sinusoïdale per radici complesse
  • 2) Autocor. parziale si annulla dopo il 2o lag.
  • RAPPRESENTAZIONE DI UN MODELLO MA IN ARMA (p, q):

Zt=ψ(B)at ψ(B)= (1-Θ1B) / (1-φB) at

DA CUI NE RICAVO:

ψs = φ1s-11 - Θ1)

  • AUTOCORREZIONE & AUTOCOVARIANZA.
  • —MOLTIPLICO IL MODELLO ARMA PER Zt-k E CON IL VALORE ATTESO ARRIVIAMO A:
  • γk = φ1γk-2 + E[Zt-kat] - Θ1E[Zt-k-1at-1]

  • k=0
  • γ0 = φ1γ1 + σ22 - Θ11 - Θ122

  • k=1
  • γ1 = φ1γ0 - Θ1σa2

    DA CUI γ0 = (1 + Θ12 - 2φ1Θ1) / (1 - φ12) σa2

    γ1 = (φ1 - Θ1)(1 - φ1Θ1) / (1 - φ12) σa2

  • k≥2
  • γk = φ1γk-1

    ρk =

    • | (φ1 - Θ1)(1 - φ1Θ1) / σ2 - 2φ1Θ1 k=1 — DIPENDE SIA DAIPARAMETRI AR CHE MA
    • | φ1ρk-1 k≥2
  • AUTOCORRELAZIONE PARZIALE
  • HA ANDAMENTO SMORZATO , MA NON CALCOLABILE IN QUANTO TROPPO COMPLETTO

VARIANZA E AUTOCOVARIANZA MODULI ARIMA

  • UN PROCESSO STAZIONARIO IN MEDIA PUÒ NON ESSERE STAZIONARIO IN VARIANZA & CON.
  • UN PROCESSO NON STAZIONARIO IN MEDIA È SICURAMENTE NON STAZIONARIO IN VARIANZA.
  • CASO IMA (1,1) RIFERIMENTO t₀ PER t>t₀

Zₜ = Zₜ₀ + aₜ + (1-θ)aₜ₋₁ + … + (1-θ)a₀₊₁ - θa₀ₜ₀

Zₜ₋ₖ = Zₜ₀ + aₜ₋ₖ + (1-θ)aₜ₋ₖ₋₁ + … + (1-θ)a₀ₜ + θa₀ₜ₀

QUINDI:

Var (Zₜ) = [1 + (t-t₀-1)(1-θ)²] σₐ²

Var (Zₜ₋ₖ) = [1 + (t-t₀-ₖ-1)(1-θ)²] σₐ²

cov (Zₜ₋ₖ₊₁, Zₜ) = [1-θ + (t-t₀-ₖ-1)(1-θ)²] σₐ²

corr (Zₜ₋ₖ₊₁, Zₜ) = - cov (Zₜ₋ₖ₊₁, Zₜ) / √(Var (Zₜ₋ₖ) * Var (Zₜ))

OSSERVAZIONI:

  • LA VARIANZA DEL PROCESSO ARIMA DIPENDE DA t E Var (Zₜ) ≠ Var (Zₜ₋ₖ) SE k≠0
  • LA Var (Zₜ) È ILLIMITATA SE t → ∞
  • COV E CORR DIPENDONO DA t - NON SONO INVARIANTI RISPETTO ALLA TRASLAZIONE SU t
  • SE t₀ >> k , CORR (Zₜ₋ₖ₊₁, Zₜ) ≈ 1

-NEL CASO IN CUI LA NON STAZIONARIETÀ IN VARIANZA & COVARIANZA DIPENDA SOLO DALLA NON STAZIONARIETÀ IN MEDIA, POSSIMO RIFARCI AD UN MODELLO STAZIONARIO IN COVARIANZA CON LA DIFF. APPROPRIATA E DUNQUE DETERMINANDO L'ANDAMENTO DEL PROCESSO SULLA BASE DEI PARAMETRI AR₁ e MA φ₁ , θ e DUA VARIANZA DEL WHITE NOISE

Dettagli
A.A. 2019-2020
76 pagine
1 download
SSD Scienze economiche e statistiche SECS-P/05 Econometria

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher matteobaldanza di informazioni apprese con la frequenza delle lezioni di Serie storiche e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Milano - Bicocca o del prof Zavanella Biancamaria.