Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
=E ∨Y
Implementiamo la seguente notazione: dove il pedice j indica il set informativo
j t t j
rispetto al quale stiamo condizionando.
∣
2 ∣
E y Y
( )
∣ ( ) =0
Var y Y y Y
( ) =E
N.B: la , perché .
t t
t t−1 t t−1 −1
[ ]
∣
2 2 2
( )
∣
Var y Y y Y y y .
( ) =E =E =h =α +α
Allora: t t−1 t t−1 t t t 0 1 t
−1 −1
[ ]
[ ] [ ]
∣
2 2 2
( )
∣
Var y Y y Y y E y
( ) =E =E =E =¿
t t−2 t t−2 t t t−2 t t
−2 −1
[ ]
2 2 2
( ) ( )
E α α y α E y α h α α α y
¿ + =α + =α + =α + + =¿
t 0 1 t−1 0 1 t−2 t−1 0 1 t 0 1 0 1 t−2
−2 −1
2 2
α α α α y .
¿ + +
0 1 0 1 t−2 [ ]
[ ] [ ]
∣
2 2 2
( )
∣
Var y Y y Y y E y
( ) =E =E =E =¿
t t−3 t t−3 t t t t t
−3 −3 −2 58
[ ]
2 2 2 2
( )
E α α α y α α E y
¿ +α + =α + +α =¿
t 0 1 0 1 t−2 0 1 0 1 t−3 t−2
−3 2 2 2
( )
α α α α h α α α y
¿ + + =α +α +α + =¿
0 1 0 1 t−2 0 1 0 1 0 1 t −3
2 3 2
α α α α α y .
¿ + + +α
0 0 1 0 1 1 t −3
Iterando questo stesso ragionamento otteniamo:
2 2 j−1 j 2
( )
∣
Var y Y E … E E y α α α α α α α y
( )
=E =α + + +...+ +
t t− j t j t j+1 t t t 0 0 1 0 1 0 1 1 t− j
− − −2 −1 j → ∞
Considerando il valore al limite, per , osserviamo che poiché stiamo condizionando rispetto ad un
set informativo sempre più lontano nel tempo, che pian piano tende all’insieme vuoto, il primo membro:
2 2
( )
∣
Var y Y E … E E y → Var y y
( ) ( )
=E =E ( )
t t− j t j t j+1 t t t t t
− − −2 −1 2 j−1
α α α α α α
+ + +...+α
Al secondo membro, la prima parte, , descrive una serie geometrica di
0 0 1 0 1 0 1 α 0
α α
ragione , il cui primo termine è , che nel limite converge a (perché abbiamo posto
1 0 1−α 1 j
j 2
α ∣ ∣
j → ∞ e α , α → 0
¿ ¿ α y <1
. Per l’ultimo termine, , risulta che, per .
1 1 1
1 t j
− α
2 0
( )
Var y y
( )
=E =
Quindi: t t 1−α 1
PROPRIETÀ ARCH(1) α y
∈¿
• Sotto l’ulteriore condizione: che definiamo condizione di stazionarietà, è un
1 t
processo debolmente stazionario, in quanto i momenti incondizionati (valore atteso e varianza) sono
finiti ed invarianti nel tempo.
α 0 y
y WN 0;
( )
Quindi . Attenzione i rendimenti sono serialmente incorrelati ma non
t
t 1−α 1
indipendenti. y MDS
• Se i rendimenti sono generati da un ARCH(1), sono una differenza di martingala ( ), in
t
y P P
=ln −ln
quanto abbiamo espresso i rendimenti come differenza del logaritmo dei prezzi: t t t−1
. Ciò implica le seguenti conseguenze: 59
∣
E y Y E y
( ) ( )
=0 =0
per la legge dei valori attesi iterati e
⇒
t t t
o −1
[ ]
E y g Y
( ) =0
t t−1
Ovvero dalla proprietà di indipendenza in media dai rendimenti passati (perché il valore y
atteso condizionato al passato è nullo) discende l’incorrelazione dei rendimenti correnti t
Y
con una qualunque funzione g(.) dei rendimenti passati .
t−1
• Inoltre la SKEWNESS è pari a 0, come mostrato di seguito:
il momento terzo è pari a: 3
3 3
2
√
y h ε → y ε .
= =h
t t t t t t [ ]
3 3
[ ]
3 3 3
( )
2 2
E y h ε E ε
=E =h =0
Il momento terzo condizionato è pari a: t t t−1 t t t t t
−1 −1
2
h y
N.B: è deterministica perchè dipende solo da
t t−1 Asimmetria di una
normale standard.
[ ]
3
E y t =0
3
L’asimmetria è pari a : , quindi la distribuzione è simmetrica.
( )
√ 2
( )
E y t
• Per quanto riguarda il momento quarto, possiamo mostrare che esso è dato da:
2 2
( )
( )
3 α 1−α
4 0 1
( )
E y = =
t 2 2
1−α 1−3 α
( ) 1
1 4
( )
E y <∞
Attenzione, affinchè il momento quarto sia finito, , e positivo, alla condizione di stazionarietà
t 2
[ ]
α 0; 1 3 α
∈ <1
occorre aggiungere una condizione addizionale: .
1 1 60
2
3 α =1
Se la curtosi sarebbe infinita.
1
Dimostrazione (il prof non l’ha fatta in classe, però raccomanda di farla per esercizio):
La distribuzione dei rendimenti è LEPTOCURTICA (caratteristica tipica della v.a. rappresentative dei
rendimenti), infatti la curtosi è: 4
( ) 2
( )
E y 1−α
t 1 ≥ 3
=3
2 2
1−3 α
( )
2
( )
E y 1
t 2
y
• È interessante, inoltre, notare che il quadrato dei rendimenti è un processo AR(1)
t
Dimostrazione: 2 2
h h
y h y v
+ −h =h +
Partendo da , se sommo e sottraggo ottengo , da cui, sostituendo , si
t t
t t t t t t
2 2
y y v
=α +α +
ottiene: .
t 0 1 t−1 t
2 v WN
y
Ma è un processo auto regressivo di ordine 1 se e solo se , osserviamo che:
t
t 2
( )
E v y
( )
∨Y =E ∨Y −h =h −h =0
- t t t t−1 t t t
−1
v
Quindi, rappresenta un processo a media condizionata nulla ovvero è indipendente in media
t v MDS
dal passato (per cui non è prevedibile sulla base dei valori passati). Ciò significa che è
t
una differenza di martingala. Questo determina come conseguenza che:
E v =0
( )
o t
E v v j≠ 0
( ) =0 ∀
, (incorrelati!)
o t t− j 2
v y
Ciò significa che è un WN, quindi esso non è prevedibile dal passato. Dunque, è un
t t
AR(1). 61
2 2
( )
Var y 3 α <1
è finita purché sia soddisfatto il vincolo: .
- t 1 y
Tale vincolo è esattamente coincidente con quello richiesto affinché i rendimenti abbiano
t
momento quarto finito. 2
v MDS y AR(1)
Quindi, come volevasi dimostrare , ciò significa che .
t t
2 τ
y AR(1) ρ τ
( )=α
Osservazione: poiché la funzione di autocorrelazione dei quadrati è .
t 1
Essa, dunque, descrive una progressione geometrica decrescente.
ESEMPIO: Simulazione di una serie derivata da un processo ARCH(1) con coefficienti
α ,α 0.1 , 0.8
=( )
( ) stimati sulla base di una realizzazione empirica di N = 1000 osservazioni.
0 1
METODO DI STIMA DI MAX VEROSIMIGLIANZA
I processi ARCH e le loro generalizzazioni (GARCH) sono facili da stimare, perché il modello è già
formulato sulla base della densità predittiva. Il modello ARCH teorizzato dipende dal vettore di parametri
62
[ ]
[ ]
α α ; α ' α 0 √
= > α 0 ; 1/3
∈
incogniti , soggetti a specifiche restrizioni: e , la seconda è la
0 1 0 1
più importante in quanto è legata alla stazionarietà.
Il metodo di max verosimiglianza è un metodo di stima del modello e quindi del vettore di parametri
[ ]
α α ; α ' α
=
incogniti che consente di trovare una stima per che sia il più verosimile possibile in
0 1
base al campione N di dati osservati.
La funzione di verosimiglianza è la funzione di densità congiunta del campione osservato. Essa è funzione
α
del vettore di parametri , e può essere fattorizzata nel prodotto delle funzioni di densità predittive:
N
∏
L y , … , y ; α , α f y
( ) ( )
= ∨Y
1 N 0 1 t t −1
t=1
Questa fattorizzazione è il risultato dell’applicazione ripetuta del principio per cui, date due variabile
aleatorie, la funzione di densità congiunta può essere fattorizzata nel prodotto della funzione di densità
condizionata per la funzione di densità marginale della variabile condizionante.
f y , … , y y f Y y y , … , y f y ,… , y y f y f Y
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
=f ∨Y =f ∨ =f ∨Y ∨Y =…=
1 N N N N N 1 N 1 N−1 N N−1 N−1 N−2 N−2
−1 −1 −1 y
La verosimiglianza può, dunque, essere scritta come il prodotto di N densità predittive di ciascun dato
t
il suo passato. f y
( ∨Y )
Come è fatta ? Sappiamo che:
t t−1
y N 0 ; h
∨Y ( )
• t t−1 t 2
h y y
( )
=Var ∨Y =α +α
• t t t 0 1 t
−1 −1 2
y
− t
1 2 h
f y Y e
∣ =
( ) t
Quindi: t t−1 √ 2 π h t
h
α
dove i nostri parametri stanno dentro . Il nostro compito sarà quello di ottenere il massimo di
t
α α
questa funzione rispetto a e .
0 1
In realtà, andremo a massimizzare il logaritmo naturale della verosimiglianza. Se prendiamo il ln della
verosimiglianza, convertiamo i prodotti in addizioni, e questo è conveniente per il trattamento analitico.
La funzione di log-verosimiglianza è data da: 63
[ ]
N N
∏ ∑
ln L y , … , y ; α , α f y ln f y
( ) ( ) ( )
=ln ∨Y = ∨Y
1 N 0 1 t t−1 t t −1
t t=1
=1
Quindi andremmo a massimizzare la log verosimiglianza, dove quello che sommiamo, per ogni t, sono i ln
( )
ln f y
( )
∨Y
delle densità predittive , che sono dati da:
t t−1 2
( )
y
−1 t
ln f y y ln 2π lnh
( ) ( )
∨Y =l ∨Y = + +
t t t t−1 t
−1 2 h t y Y
¿ &ique