Anteprima
Vedrai una selezione di 10 pagine su 154
Appunti Finanza Quantitativa Pag. 1 Appunti Finanza Quantitativa Pag. 2
Anteprima di 10 pagg. su 154.
Scarica il documento per vederlo tutto.
Appunti Finanza Quantitativa Pag. 6
Anteprima di 10 pagg. su 154.
Scarica il documento per vederlo tutto.
Appunti Finanza Quantitativa Pag. 11
Anteprima di 10 pagg. su 154.
Scarica il documento per vederlo tutto.
Appunti Finanza Quantitativa Pag. 16
Anteprima di 10 pagg. su 154.
Scarica il documento per vederlo tutto.
Appunti Finanza Quantitativa Pag. 21
Anteprima di 10 pagg. su 154.
Scarica il documento per vederlo tutto.
Appunti Finanza Quantitativa Pag. 26
Anteprima di 10 pagg. su 154.
Scarica il documento per vederlo tutto.
Appunti Finanza Quantitativa Pag. 31
Anteprima di 10 pagg. su 154.
Scarica il documento per vederlo tutto.
Appunti Finanza Quantitativa Pag. 36
Anteprima di 10 pagg. su 154.
Scarica il documento per vederlo tutto.
Appunti Finanza Quantitativa Pag. 41
1 su 154
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

=E ∨Y

Implementiamo la seguente notazione: dove il pedice j indica il set informativo

j t t j

rispetto al quale stiamo condizionando.

2 ∣

E y Y

( )

∣ ( ) =0

Var y Y y Y

( ) =E

N.B: la , perché .

t t

t t−1 t t−1 −1

[ ]

2 2 2

( )

Var y Y y Y y y .

( ) =E =E =h =α +α

Allora: t t−1 t t−1 t t t 0 1 t

−1 −1

[ ]

[ ] [ ]

2 2 2

( )

Var y Y y Y y E y

( ) =E =E =E =¿

t t−2 t t−2 t t t−2 t t

−2 −1

[ ]

2 2 2

( ) ( )

E α α y α E y α h α α α y

¿ + =α + =α + =α + + =¿

t 0 1 t−1 0 1 t−2 t−1 0 1 t 0 1 0 1 t−2

−2 −1

2 2

α α α α y .

¿ + +

0 1 0 1 t−2 [ ]

[ ] [ ]

2 2 2

( )

Var y Y y Y y E y

( ) =E =E =E =¿

t t−3 t t−3 t t t t t

−3 −3 −2 58

[ ]

2 2 2 2

( )

E α α α y α α E y

¿ +α + =α + +α =¿

t 0 1 0 1 t−2 0 1 0 1 t−3 t−2

−3 2 2 2

( )

α α α α h α α α y

¿ + + =α +α +α + =¿

0 1 0 1 t−2 0 1 0 1 0 1 t −3

2 3 2

α α α α α y .

¿ + + +α

0 0 1 0 1 1 t −3

Iterando questo stesso ragionamento otteniamo:

2 2 j−1 j 2

( )

Var y Y E … E E y α α α α α α α y

( )

=E =α + + +...+ +

t t− j t j t j+1 t t t 0 0 1 0 1 0 1 1 t− j

− − −2 −1 j → ∞

Considerando il valore al limite, per , osserviamo che poiché stiamo condizionando rispetto ad un

set informativo sempre più lontano nel tempo, che pian piano tende all’insieme vuoto, il primo membro:

2 2

( )

Var y Y E … E E y → Var y y

( ) ( )

=E =E ( )

t t− j t j t j+1 t t t t t

− − −2 −1 2 j−1

α α α α α α

+ + +...+α

Al secondo membro, la prima parte, , descrive una serie geometrica di

0 0 1 0 1 0 1 α 0

α α

ragione , il cui primo termine è , che nel limite converge a (perché abbiamo posto

1 0 1−α 1 j

j 2

α ∣ ∣

j → ∞ e α , α → 0

¿ ¿ α y <1

. Per l’ultimo termine, , risulta che, per .

1 1 1

1 t j

− α

2 0

( )

Var y y

( )

=E =

Quindi: t t 1−α 1

PROPRIETÀ ARCH(1) α y

∈¿

• Sotto l’ulteriore condizione: che definiamo condizione di stazionarietà, è un

1 t

processo debolmente stazionario, in quanto i momenti incondizionati (valore atteso e varianza) sono

finiti ed invarianti nel tempo.

α 0 y

y WN 0;

( )

Quindi . Attenzione i rendimenti sono serialmente incorrelati ma non

t

t 1−α 1

indipendenti. y MDS

• Se i rendimenti sono generati da un ARCH(1), sono una differenza di martingala ( ), in

t

y P P

=ln −ln

quanto abbiamo espresso i rendimenti come differenza del logaritmo dei prezzi: t t t−1

. Ciò implica le seguenti conseguenze: 59

E y Y E y

( ) ( )

=0 =0

per la legge dei valori attesi iterati e

t t t

o −1

[ ]

E y g Y

( ) =0

t t−1

Ovvero dalla proprietà di indipendenza in media dai rendimenti passati (perché il valore y

atteso condizionato al passato è nullo) discende l’incorrelazione dei rendimenti correnti t

Y

con una qualunque funzione g(.) dei rendimenti passati .

t−1

• Inoltre la SKEWNESS è pari a 0, come mostrato di seguito:

il momento terzo è pari a: 3

3 3

2

y h ε → y ε .

= =h

t t t t t t [ ]

3 3

[ ]

3 3 3

( )

2 2

E y h ε E ε

=E =h =0

Il momento terzo condizionato è pari a: t t t−1 t t t t t

−1 −1

2

h y

N.B: è deterministica perchè dipende solo da

t t−1 Asimmetria di una

normale standard.

[ ]

3

E y t =0

3

L’asimmetria è pari a : , quindi la distribuzione è simmetrica.

( )

√ 2

( )

E y t

• Per quanto riguarda il momento quarto, possiamo mostrare che esso è dato da:

2 2

( )

( )

3 α 1−α

4 0 1

( )

E y = =

t 2 2

1−α 1−3 α

( ) 1

1 4

( )

E y <∞

Attenzione, affinchè il momento quarto sia finito, , e positivo, alla condizione di stazionarietà

t 2

[ ]

α 0; 1 3 α

∈ <1

occorre aggiungere una condizione addizionale: .

1 1 60

2

3 α =1

Se la curtosi sarebbe infinita.

1

Dimostrazione (il prof non l’ha fatta in classe, però raccomanda di farla per esercizio):

La distribuzione dei rendimenti è LEPTOCURTICA (caratteristica tipica della v.a. rappresentative dei

rendimenti), infatti la curtosi è: 4

( ) 2

( )

E y 1−α

t 1 ≥ 3

=3

2 2

1−3 α

( )

2

( )

E y 1

t 2

y

• È interessante, inoltre, notare che il quadrato dei rendimenti è un processo AR(1)

t

Dimostrazione: 2 2

h h

y h y v

+ −h =h +

Partendo da , se sommo e sottraggo ottengo , da cui, sostituendo , si

t t

t t t t t t

2 2

y y v

=α +α +

ottiene: .

t 0 1 t−1 t

2 v WN

y

Ma è un processo auto regressivo di ordine 1 se e solo se , osserviamo che:

t

t 2

( )

E v y

( )

∨Y =E ∨Y −h =h −h =0

- t t t t−1 t t t

−1

v

Quindi, rappresenta un processo a media condizionata nulla ovvero è indipendente in media

t v MDS

dal passato (per cui non è prevedibile sulla base dei valori passati). Ciò significa che è

t

una differenza di martingala. Questo determina come conseguenza che:

E v =0

( )

o t

E v v j≠ 0

( ) =0 ∀

, (incorrelati!)

o t t− j 2

v y

Ciò significa che è un WN, quindi esso non è prevedibile dal passato. Dunque, è un

t t

AR(1). 61

2 2

( )

Var y 3 α <1

è finita purché sia soddisfatto il vincolo: .

- t 1 y

Tale vincolo è esattamente coincidente con quello richiesto affinché i rendimenti abbiano

t

momento quarto finito. 2

v MDS y AR(1)

Quindi, come volevasi dimostrare , ciò significa che .

t t

2 τ

y AR(1) ρ τ

( )=α

Osservazione: poiché la funzione di autocorrelazione dei quadrati è .

t 1

Essa, dunque, descrive una progressione geometrica decrescente.

ESEMPIO: Simulazione di una serie derivata da un processo ARCH(1) con coefficienti

α ,α 0.1 , 0.8

=( )

( ) stimati sulla base di una realizzazione empirica di N = 1000 osservazioni.

0 1

METODO DI STIMA DI MAX VEROSIMIGLIANZA

I processi ARCH e le loro generalizzazioni (GARCH) sono facili da stimare, perché il modello è già

formulato sulla base della densità predittiva. Il modello ARCH teorizzato dipende dal vettore di parametri

62

[ ]

[ ]

α α ; α ' α 0 √

= > α 0 ; 1/3

incogniti , soggetti a specifiche restrizioni: e , la seconda è la

0 1 0 1

più importante in quanto è legata alla stazionarietà.

Il metodo di max verosimiglianza è un metodo di stima del modello e quindi del vettore di parametri

[ ]

α α ; α ' α

=

incogniti che consente di trovare una stima per che sia il più verosimile possibile in

0 1

base al campione N di dati osservati.

La funzione di verosimiglianza è la funzione di densità congiunta del campione osservato. Essa è funzione

α

del vettore di parametri , e può essere fattorizzata nel prodotto delle funzioni di densità predittive:

N

L y , … , y ; α , α f y

( ) ( )

= ∨Y

1 N 0 1 t t −1

t=1

Questa fattorizzazione è il risultato dell’applicazione ripetuta del principio per cui, date due variabile

aleatorie, la funzione di densità congiunta può essere fattorizzata nel prodotto della funzione di densità

condizionata per la funzione di densità marginale della variabile condizionante.

f y , … , y y f Y y y , … , y f y ,… , y y f y f Y

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )

=f ∨Y =f ∨ =f ∨Y ∨Y =…=

1 N N N N N 1 N 1 N−1 N N−1 N−1 N−2 N−2

−1 −1 −1 y

La verosimiglianza può, dunque, essere scritta come il prodotto di N densità predittive di ciascun dato

t

il suo passato. f y

( ∨Y )

Come è fatta ? Sappiamo che:

t t−1

y N 0 ; h

∨Y ( )

• t t−1 t 2

h y y

( )

=Var ∨Y =α +α

• t t t 0 1 t

−1 −1 2

y

− t

1 2 h

f y Y e

∣ =

( ) t

Quindi: t t−1 √ 2 π h t

h

α

dove i nostri parametri stanno dentro . Il nostro compito sarà quello di ottenere il massimo di

t

α α

questa funzione rispetto a e .

0 1

In realtà, andremo a massimizzare il logaritmo naturale della verosimiglianza. Se prendiamo il ln della

verosimiglianza, convertiamo i prodotti in addizioni, e questo è conveniente per il trattamento analitico.

La funzione di log-verosimiglianza è data da: 63

[ ]

N N

∏ ∑

ln L y , … , y ; α , α f y ln f y

( ) ( ) ( )

=ln ∨Y = ∨Y

1 N 0 1 t t−1 t t −1

t t=1

=1

Quindi andremmo a massimizzare la log verosimiglianza, dove quello che sommiamo, per ogni t, sono i ln

( )

ln f y

( )

∨Y

delle densità predittive , che sono dati da:

t t−1 2

( )

y

−1 t

ln f y y ln 2π lnh

( ) ( )

∨Y =l ∨Y = + +

t t t t−1 t

−1 2 h t y Y

¿ &ique

Dettagli
Publisher
A.A. 2016-2017
154 pagine
4 download
SSD Scienze economiche e statistiche SECS-S/06 Metodi matematici dell'economia e delle scienze attuariali e finanziarie

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher FolKlorE di informazioni apprese con la frequenza delle lezioni di Finanza quantitativa e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Roma Tor Vergata o del prof Proietti Tommaso.