Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

Nel mondo di oggi non è detto che i mutui non siano negoziabili, spesso infatti vengono

cartolarizzati, la vendita avviene quindi ai valori di mercato, l'aumento dei tassi e la

diminuzione delle attività crea un diminuzione del valore.

L'oggetto principale dell'analisi del duration GAP saranno le poste che vengono

trascurate dal Repricing Gap (le poste considerate sono a breve scadenza e quelle a

tasso variabile; queste pesano poco per la variazione del fair value).

Nell'analisi del Duration Gap concentriamo la nostra attenzione sulle poste a tasso fisso

(tendenzialmente con Duration più alta) e quelle a medio/lunga scadenza.

Negli esercizi bisognerà quindi analizzare la duration delle poste dell'attivo e del

passivo.

13

L'impatto di una variazione dei tassi W dipende da:

- differenza tra duration media dell'attivo e passivo

- grado di Leverage

- dimensione dell'attivo

La condizione base di immunizzazione è GAP = 0

Riguardando il calcolo del Duration Gap però ci accorgiamo che il rapporto tra VMP e

VMA è uguale a 1 (se non è così la banca è insolvente) questo è moltiplicato per

qualcosa di inferiore a 1, per arrivare a zero la Duration media del passivo deve essere

più grande di quella dell'attivo.

Duration attivo < Duration passivo

Il Duration Gap presenta però alcuni limiti:

• Difficile utilizzo sopratutto in fase di politiche di copertura perchè la duration varia al

variare dei tassi in modo diverso a seconda delle poste dell'attivo o passivo

• imprecisione dovuta alla duration

• i tassi devono sempre variare in modo uniforme SEGUE ESERCIZIO 1 DURATION GAP

Pregi del Duration Gap:

Rispetto al Repricing Gap analizza gli effetti di medio-lungo periodo.

Limiti del Duration Gap:

- difficoltà di utilizzo sopratutto durante fasi di politiche di copertura (se la banca è

troppo esposta sarà necessario proteggere il bilancio, per esempio usando i derivati);

la difficoltà sta nel fatto che la Duration è un indicatore che evolve continuamente, la

modifica non è lineare. In più si modifica al variare dei tassi d'interesse. Le politiche di

copertura devono quindi essere adattate di volta in volta.

- Imprecisione della duration (la stima è significativa, utilizzando la duration modificata

facciamo finta che la relazione tra rendimento e prezzo sia lineare (linea blu) in realtà

è curvilinea (linea nera)

14

- Ipotesi di variazioni uniformi dei tassi (le variazioni dei tassi sono sempre parallele

esattamente come nel Repricing Gap). Pensando alla formula Delta W in effetti

abbiamo una sola variazione dei tassi; questa assunzione si fonda sul fatto che i tassi

si spostino tutti nello stesso verso)

Gli stessi limiti che ha la duration li avrà la duration modificata e quindi il Duration Gap.

SEGUONO ESERCIZI 2, 3 DURATION GAP

Sistema dei tassi interni di trasferimento (capitolo 4)

Si tratta di una tecnica gestionale, un sistema organizzativo che porta alla gestione del

tasso d'interesse nell'ambito del Banking Book (insieme delle operazioni che la banca

detiene a medio-lungo termine. (Sul lato passivo: depositi, obbligazioni... Sul lato attivo:

prestiti, portafoglio titoli...)

I depositi e i prestiti si originano presso gli sportelli bancari, da li comincia la

generazione del banking book. La frammentazione delle filiali determina però una

frammentazione del processo (saranno le filiali a calcolare il duration Gap?).

Il metodo più adottato prevede che l'operatività delle filiali sia girata ad un soggetto unico

all'interno dell'organizzazione generale della banca. Le filiali vengono così sgravate dalle

conseguenze positive o negative della variazione dei tassi. Gli obiettivi delle filiali sono

diversi rispetto agli enti interni alla banca, spesso infatti gli incentivi dei singoli dipendenti

sono slegati rispetto ai rischi dei tassi d'interessi. Se il modello di gestione previsto slega

le filiali dalla gestione dei tassi, i risultati di produttività non risentiranno di questa

variabile.

15

E' possibile che vi sia poi uno sbilancio tra raccolta e impieghi, tutte le posizioni vengono

uniformate. (Esempio: le filiali possono avere più raccolta o più impieghi a seconda della

zona di competenza)

Il sistema dei tassi interni di trasferimento ha gli obiettivi di:

- Trasferire il rischio dei tassi dalle sedi decentrate (filiali) alla tesoreria (struttura unica)

- Valutare la redditività delle singole sedi decentrate (e agganciare ai vari bonus)

slegate dai tassi

- Centralizzare la gestione del rischio tasso

- Centralizzare l'attività di funding

Esempio:

Supponiamo di avere una filiale che in un dato orizzonte temporale ha effettuato due

sole operazioni:

- emesso un certificato di deposito ad un anno; 1.000.000; tasso 3%

- erogato un prestito a 3 anni; 1.000.000; tasso al 6%

Due operazioni fittizie con la tesoreria:

- prestito alla tesoreria, scadenza ad un anno, tasso 4%

- raccolta fondi dalla tesoreria, scadenza 3 anni, tasso 5%

Per ciascuna operazione reale effettuata in filiale viene attivata un'operazione fittizia con

la tesoreria Se la filiale emette un certificato di deposito contemporaneamente eroga un

.

prestito alla tesoreria dello stesso importo con tasso prestabilito. La tesoreria è come se

fosse un market maker. Per erogare un prestito invece la filiale si rivolge alla propria

tesoreria interna chiedendo a prestito del denaro, con stesso orizzonte temporale e con

tasso stabilito dalla tesoreria (5%).

Se mettiamo insieme le operazioni reali con quelle fittizie e andiamo a comporre uno

stato patrimoniale dei due soggetti, il Repricing gap della filiale è pari a 0 per tutti gli

orizzonti temporali.

Attivo filiale Passivo filiale

Prestito a tesoreria 1 anno 4% 1.000.000 CD 1 anno 3% 1.000.000

Prestito 3 anni 6% 1.000.000 Prestito da tesoreria 3 anni 5% 1.000.000

Qualsiasi Repricing Gap calcolato nei diversi orizzonti temporali è sempre pari a 0. Se il

Gap è pari a zero allora saremo in una perfetta situazione di immunizzazione.

16

Le operazioni in nero sono quelle effettivamente attivate dalla filiale, mentre quelle in

rosso sono una contropartita con la tesoreria.

Sulla base di queste operazioni avremo:

Margine Interesse attivo: 40.000 + 60.000 = 100.000

Margine Interesse Passivo: 30.000 + 50.000 = 80.000

MI = 100.000 - 80.000 = + 20.000

E' un margine immune dalle variazioni dei tassi d'interesse, questo perché il Repricing

Gap è pari a zero. L'unica condizione che potrà modificare il margine d'interesse della

filiale è la possibile insolvenza sui prestiti; se alcuni dei prestiti erogati saranno in

sofferenza allora il margine d'interesse sarà inferiore.

Possiamo pensare che la logica sia appropriata: non essendo i tassi d'interesse sotto il

controllo della filiale non incidono sul loro margine d'interesse; ciò che incide è la

possibile insolvenza dei clienti creditori, in linea con le dirette responsabilità di

valutazione dei clienti che le filiali hanno.

Il margine d'interesse di filiale dipenderà anche dal tasso d'interesse riconosciuto ai

clienti, più alto è il tasso sui prestiti più sarà alto il margine.

Problematiche del sistema dei tassi interni di trasferimento

A) distinzione tra sistemi di tassi interni di trasferimento a flussi netti e tassi interni di

trasferimento a flussi lordi; quello che abbiamo presentato sopra è a flusso lordo.

Per ogni operazione fatta dalla filiale viene effettuata un'operazione di segno

opposto con la tesoreria. E' un sistema che raggiunge meglio lo scopo prefissato.

In molte realtà viene utilizzato un sistema a flussi netti, meno efficace e trasferisce lo

sbilancio tra attivo e passivo alla tesoreria.

Esempio: se in una certa settimana sono stati raccolti depositi per 1 mln e prestiti per

750.000, lo sbilancio è pari a 250.000. Si trasferirà alla tesoreria solo questa

componente. Si cerca così di riportare in equilibrio il bilancio della filiale.

Il semplice trasferimento permette di perseguire solamente uno degli obiettivi:

(1) trasferire rischi d'interesse alla tesoreria

(2)poter calcolare una performance filiali esente dai tassi

(3) centralizzare l'attività di funding.

Il sistema netto permette di soddisfare solo il 3o ovvero l'attività di funding.

Trasferendo solamente lo sbilancio in stato patrimoniale non abbiamo un trasferimento

puntuale di tutte le operazioni. Questo sistema non è quindi ottimale.

17

Il sistema di trasferimento a flussi lordi deve:

(quello usato da noi)

- fondarsi sui tassi di mercato (l'aggiornamento da parte della tesoreria dovrebbe

essere giornaliera)

- Prevedere tassi interni di trasferimento multipli, differenziati per scadenza

- Prevedere tassi interni di trasferimento per le operazioni di raccolta e impiego (la

tesoreria dovrebbe indicare un tasso denaro e lettera per le operazioni con le filiale)

Un ulteriore problema che si pone è rappresentato da tutte quelle operazioni a tasso

variabile. Possiamo distinguere due fattispecie:

- operazioni indicizzate a tasso di mercato (mutui spesso indicizzati all'Euribor);

queste operazioni dovrebbero essere trasferite alla tesoreria con stesso parametro di

riferimento; se la banca eroga un prestito a tasso variabile, la tesoreria deve

concedere un prestito alla filiale con lo stesso parametro con possibilità che vi sia un

diverso spread

- Operazioni indicizzate a tassi amministrati; (è un tasso deciso da entità

governative, es. tasso interno di sconto; banca d'Italia qualche anno fa chiese di

indicizzare mutui all'euribor ma anche al tasso di rifinanziamento BCE) in questo caso

la tesoreria si impegna a riconoscere o concedere operazioni indicizzate a tassi di

difficile copertura perché non ci sono strumenti finanziari agevoli. Un'altra possibilità è

quella di mantenere allo stesso modo un'operazione figurativa con un altro tasso

d'interesse. A questo punto però i due tassi potrebbero muoversi in maniera diversa,

lasciando una componente di rischio tasso alla filiale, questo è dovuto ad una

possibile discrepanza tra l'andamento del mercato rispetto a quello amministrato.

Trattamento delle operazioni con opzioni implicite, spesso ci sono prestiti che inglobano

al loro interno un derivato:

- prestiti con opzione di trasformazione del tasso

- Prestiti a tasso variabile con CAP

- Prestiti a tasso variabile con FLOOR

- Prestiti con opzione di rimborso anticipato

Il derivato viene pagato dal cliente, lo spread sarà quindi più alto rispetto ad un mutuo

base a tasso variabile. In questo caso affinché il sistema dei tassi interni funzioni bene è

necessario tenere conto di tutte le componenti possibili.

Esempio:

18 Attivo Filiale Passivo Filiale (evidenzia le operazioni

figurative effettuate con la Tesoreria)

Prestito Tasso Euribor 6M + 2% 5 anni con Prestito da tesoreria Euribor 6M + 1% 5 anni

Opzione Cap 250.000 250.000

Opzione CAP Opzione CAP (acquistata dalla tesoreria)

Entrambe le componenti dell'attivo sono soggette al rischio tasso (la banca vende

l'opzione al cliente).

La tesoreria dovrà quotare sia un tasso variabile che un prezzo per l'opzione, solo in

questo modo è possibile capire l'esposizione ai tassi d'interesse.

Per tutte le operazioni che comprendono un derivato sarà necessario trasferire sia la

componente del prestito che quella derivata. SEGUE ESERCIZIO 1 SUI TASSI DI TRASFERIMENTO

Value at Risk (VAR)

significato, premi e limiti

L'obiettivo è calcolare il rischio sul portafoglio di trading book (azioni, obbligazioni) la

banca detiene posizioni di breve termine per poi rivenderle velocemente,

L'ottica cambia completamente, la domanda potrà essere quale sarà la variazione del

tasso nell'arco di 24 ore o di qualche giorno. L'indicatore che viene utilizzato

maggiormente è quello di Value At Risk. E' un indicatore che ha scardinato la filosofia

stessa di misurazione del rischio, tradizionalmente veniva misurato attraverso dei

parametri di sensibilità, ovvero delle quantità che quantificano la reazione di una certa

posizione al variare delle condizioni di mercato.

Esempi di parametri di sensibilità sono:

• modified duration (indica come una variazione si trasforma, ci saranno titoli/portafogli

con trasmissione maggiore o minore)

• Beta (indica come si trasmette una variazione delle condizioni di mercato al prezzo

del titolo; Beta 1.5 è più rispetto rispetto ad un Beta 0.8))

• delta di un'opzione (come varia il prezzo di un'opzione rispetto al prezzo del

sottostante)

• maturity gap

• duration gap (se il valore della duration del primo titolo è 15, mentre il secondo 3 è

molto più variabile il primo titolo)

19

• Repricing Gap (Gap * delta i, mi dice come la variazione del tasso si trasmette sul

margine d'interesse)

Problemi:

1) Ciò che manca è una quantificazione di quanto può essere grande la variazione della

variabile

Esempio: se abbiamo un portafoglio obbligazionario con duration media di 10. E'

accettabile oppure no? La risposta dovrà passare attraverso un'ipotesi circa la

variazione dei tassi. Se i tassi non cambiano non succede nulla, ma se i tassi devono

salire di 5 punti allora è tantissimo, perdo il 50% del valore del portafoglio. Qualsiasi

valore della Duration deve essere rapportata al valore dei tassi d'interessi. Manca quindi

una quantificazione di quanto possa essere grande Delta i. In tutti gli esercizi precedenti

facevamo infatti delle ipotesi circa la stima della variazione dei tassi d'interesse. Quello

che fa il VAR è quello di aggiungere una stima specifica di quanto possa essere grande

la variazione della variabile nel prossimo periodo.

2) problema di comparabilità e confronto tra portafogli

Esempio: se in banca abbiamo due gruppi di lavoro il primo fa trading sul mercato

azionario (Beta 1.2), il secondo su quello obbligazionario (duration 5). Il portafoglio vale

5.000.000. Quale dei due rischia di più? Non possiamo dirlo perchè sono indicatori

totalmente diversi.

Con questi problemi non riusciamo a capire quindi quali gestori rischiano maggiormente

(no confronti). La banca così non può capire chi incentivare di più (se lo fanno solo per i

rendimenti magari possono incoraggiare più rischio).

Un ulteriore problema è rappresentato dai limiti di posizione che la banca può dare alle

sue diverse sezioni, per la parte azionaria è possibile fissare limiti di rating e duration,

per l'azionario invece un beta. Ma qualsiasi valore fissato in tutti i casi non ha significato

perché ogni caso è diverso.

In più se l'obiettivo è capire quanto patrimonio minimo è necessario per coprire i rischi

durante l'operatività in titoli, per far ciò però bisogna quantificare in che modo possa

essere turbolento il mercato nel futuro.

Quindi riassumendo, i limiti maggiori dell'analisi tradizionali derivano:

I. difficoltà di comparazione tra posizioni in mercati diversi

II. i parametri di sensibilità non tengono conto del livello di volatilità dei fattori di rischio

Il VAR tenta (prova) ad arginare i due problemi di cui sopra.

20

Lo fa andando ad esplicitare una variazione del fattore di rischio (tasso, prezzi, valute...),

calcolerà la massima perdita potenziale che una certa posizione o portafoglio potrebbero

subire in un certo orizzonte temporale e con un certo livello di confidenza.

Il VAR parte sempre dall'approccio dei parametri si sensibilità ma esprime una stima dei

tassi (massima variazione potenziale con un certo livello di confidenza statistica).

Esempio:

portafoglio obbligazionario Valore di mercato 10.000.000 Modified duration 5

portafoglio azionario Valore di mercato 20.000.000 Beta medio 0.8

Alla domanda, sta rischiando di più uno o l'altro è difficile dirlo, perché non possiamo

confrontare i due parametri di sensibilità in quanto calcolati in modi diversi.

• Sappiamo però che Delta i nella prossima settimana (con il 99% di sensibilità) non

dovrà essere superiore all'1%.

• Invece la variazione degli indici delle azioni non superiore al 10% ( sempre con

orizzonte una settimana, 99% confidenza)

Sono due stime sulla massima variazione potenziale avversa che il fattore di rischio

potrebbe verificarsi, solo nell'1% dei casi potrà esserci una variazione dei tassi > 1% o

una variazione degli indici di borsa > 10%.

VAR obbligazioni: - MD * Delta i * VM portafoglio = -5 * 0.01 * 10.000.000 = (-) 500.000

VAR azioni : Beta * Delta i * VM portafoglio = 0.8 * (- 0.10) * 20.000.000 = - 1.600.000

La lettura del risultato mi dice che: durante la prossima settimana, rispettivamente nei due portafogli, non

mi aspetto di perdere quei valori.

Quanto calcolato è una stima del rischio, se ripetessimo il calcolo tutti i giorni e ne

facessimo una media, rapportandolo con guadagni e perdite avremmo un indicatore di

redditività che considera anche il rischio.

VAR stima la massima perdita potenziale di una certa posizione in un determinato

orizzonte temporale e con un certo livello di probabilità (confidenza).

Ci sono diversi approcci per il calcolo del VAR e sono tutte incentrate nel formulare la

migliore stima possibile della stima de rischio.

21

Vantaggi del VAR

• indicatore di agevole comunicazione (si riferisce al risultato finale, è un numero in

euro/dollari/valore monetario di facile valutazione sopratutto in quei consigli di

amministrazione dove non c'è molta conoscenza finanziaria)

• confronto tra tipologie di rischio diversi (proposto per la prima volta da JP Morgan)

• risolve il problema del limite all'assunzione di rischio (in un periodo come questo con

tassi bassi è perfetto; ma esprimere la massima perdita del portafoglio in ambito di

tassi variabili è essenziale. Quando il portafoglio è più contenuto si può investire di

più, se invece il portafoglio ha troppe attività ci avvisa di limitare in quanto il rischio

diventa sensibile al periodo)

• costruzione di misure di risk adjusted performance (RAP) misure di rischio rapportate

al VAR (quanto rischio ha prodotto un certo portafoglio; quanto ha guadagnato

l'obbligazionario o l'azionario può essere rapportato al VAR considerando anche i

rischi)

• valutazione dell'adeguatezza patrimoniale (sapendo quanti euro possono perdere i

portafogli, dato un certo intervallo di confidenza, della banca possiamo capire come

coprire eventuali perdite)

Calcolare il VAR

Dovremmo fare delle scelte preliminare prima di iniziare a calcolare il VAR,

considerando che ci sono 3 metodi diversi:

- approccio parametrico (varianze e covarianze)

- approccio delle simulazioni storiche

- approccio Montecarlo

Vedremo i primi due. L'approccio Montecarlo viene usato prevalentemente per un

portafoglio di derivati.

L'approccio varianze e covarianze è il primo che è stato proposto da JP Morgan. Ne

vedremo una serie di problematiche e limiti che hanno dato vita agli altri due metodi.

Approccio parametrico (varianze e covarianze)

Il problema principale è stimare la massima variazione potenziale di rischio. Si pone

un'ipotesi di fondo molto forte, che le variabili aleatorie (i fattori di rischio) seguono tutti

una distribuzione normale. Assumiamo che le variazioni dei prezzi, tassi d'interesse e

22

cambio siano normalmente distribuite. Questa assunzione è quella che genererà tutti i

problemi di questo approccio.

Per la distribuzione normale è nota la probabilità di ottenere valori compresi in un

intervallo centrato sulla media.

Alcuni intervalli più importanti per gli esercizi:

Multiplo Probabilità Prob. (x < μ-ασ)

(μ-ασ <x< μ+ασ) =

Prob. (x > μ+ασ)

1 68.27% 15.87%

1.65 90% 5%

2.33 98% 1%

2.58 99% 0.5%

Se per esempio prendiamo in considerazione 1.65 e costruisco l'intervallo medio

- 1.65* deviazione standard e +1.65 * deviazione standard

otteniamo il 99% dei dati.

Esempio:

Supponiamo di avere un portafoglio di 10.000 azioni Autostrade SPA, il prezzo è 7,08

euro. Valore di Mercato = 78.000. Calcolare il VAR di un giorno e livello di confidenza

95% con approccio parametrico.

Ci stiamo chiedendo quanto potremmo perdere al massimo domani. Dobbiamo sapere

di quanto potrebbe variare al ribasso il prezzo dell'azione.

Quanto potrebbe perdere il titolo domani?

Le ipotesi che abbiamo fatto fanno riferimento al fatto che le variazioni dei prezzi siano

normalmente distribuite.

A valori più lontani dalla media si associano valori via via più bassi, se sono più vicini il

contrario.

La media e la distribuzione standard del titolo vengono fuori dalle variazioni dei prezzi

degli ultimi periodi. Una volta che costruiamo le variazioni percentuali di prezzo

possiamo calcolare entrambi.

Supponiamo di aver scoperto che la variazione media è 0.2% e la

deviazione standard = 1.50%

Costruiamo un intervallo intorno alla media usando come multiplo 1.65 in questo modo:

23 variazione media - (1.65 * deviazione standard)

0.002 - (1.65 * 1.50%) = - 2.275%

0.002 + (1.65* 1.50%) = + 2.675%

Con il multiplo 1,65 abbiamo il 90% che il risultato si trovi in quell'intervallo, il 5% di

cadere da una parte o dall'altra nella funzione normale.

se prendiamo un punto inferiore a -2.275% saremo nel 5% dei casi (è una coda).

VAR = 78.000 * - 2.275% = 1774.50

Non abbiamo usato parametri di sensibilità perché abbiamo lavorato direttamente sulle

variazioni al ribasso. Avremmo dovuto usare il beta se invece di avere le variazioni

percentuali del titolo avessimo avuto quelle dell'indice (FTSE MIB).

Per scegliere quale multiplo considerare conviene guardare la seconda colonna e capire

la parte da trascurare.

In termini generali con l'approccio parametrico il VAR di una posizione si calcola come

prodotto fra 3 fattori diversi:

- valore di mercato (VM)

- parametro di sensibilità (PS) in questo caso abbiamo direttamente le variazioni di

rischio, ne avremmo avuto bisogno se avessimo le variazioni dell'indice

- potenziale variazione sfavorevole dei fattori di mercato (prodotto tra volatilità stimata e

fattore scalare alfa livello di confidenza)

Nell'esempio che abbiamo fatto abbiamo ipotizzato una media, in realtà la stima che ha

più affidabilità nel lungo periodo è 0.

VAR = VMi * (PSi) * α * σi

(alfa è il multiplo scelto da tabella precedente )

Attenzione!

Il parametro di sensibilità serve solo se, al variare del fattore di rischio, il valore di

mercato della posizione analizzata non varia in maniera direttamente proporzionale.

Vedremo adesso due esempi:

Esempio 1: calcolo VAR di un titolo obbligazionario con o senza duration modificata.

Esempio 2: calcolo VAR di un titolo azionario con o senza beta.

24

1) Supponiamo di avere un BTP con scadenza 1/1/2029 Duration Modificata = 4.7

VNominale = 5.000.000 Corso Tel Quel = 110. Deviazione standard del TRES = 0.50% -

Deviazione standard prezzo BTP = 2.20%

Supponiamo di calcolare il VAR per un giorno con livello di confidenza del 99%, significa

che la parte eccedente isolata nelle code è pari all'1%.

1° Modo uso il parametro del TRES e Duration Modificata

VAR = 5.000.000 * 110/100 * 4.7 * 2.33 * 0.50% = 301.152

2° Modo uso la deviazione standard del prezzo

VAR = 5.000.000 * 110/100 * 2.33 * 2.20% = 281.930

Nel primo caso il parametro di sensibilità (Duration Modificata) è necessario perché ho le

deviazioni standard del tasso di rendimento e serve un moltiplicatore; nel secondo caso

invece abbiamo direttamente le variazioni di prezzo.

2) Supponiamo di avere 10.000 titoli alfa in portafoglio, prezzo = 5 euro, Beta = 0.8,

Deviazione standard indice di borsa = 1.2%, deviazione standard prezzo alfa = 0.9% var

1 giorno e 99% di probabilità

1° Modo uso deviazione standard indice:

VAR = 10.000 * 5 * 0.8 * 2.33 * 1.20% = 1118.40

2° Modo deviazione prezzo senza beta

VAR = 10.000 * 5 *2.33* 0.9% = 1048.50

La scelta dei due approcci dipenderà dai dati che avremo a disposizione.

Il VAR di un Portafoglio

In questo caso viene stimato attraverso la teoria di portafoglio con questa formula:

Abbiamo i seguenti valori di:

25

• valori di mercato

• sensibilità delle posizioni

• multiplo alfa

• volatilità delle singole posizioni

• correlazioni fra gli n rendimenti

Di fatto è la radice quadrata tra il VAR i e J per il loro coefficiente di correlazione.

Esercizio portafoglio 2 Titoli:

Titolo A VM = 500 mln, Dev.Standard = 2%

Titolo B VM = 100 mln, Dev.Standard = 3% Coefficiente di correlazione = 6

Livello di confidenza del 97,7% alfa =2.

Usando la formula appena scritta possiamo avere 4 scenari:

1. Se scegliamo il primo titolo avremmo all'interno della radice quadrata il VAR del titolo

A al quadrato (perché i assume valore 2) per il coefficiente di correlazione per se

stesso = 1

2. Se scegliamo il secondo titolo avremmo all'interno della radice quadrata il VAR del

titolo B al quadrato (perché J assume valore 2)

3. Possiamo poi ancora prendere in considerazione il primo VAR per il secondo per

coefficiente tra 1 e 2 (i assume valore 1 e J valore 2)

4. ed infine il secondo VAR per il Primo VAR (i assume valore 2 e J valore 1)

26

Il risultato quantifica l'effetto correlazione, i titoli non si muovono nelle stessa direzione e

per lo stesso ammontare. In questo caso si muovono nella stessa direzione perché il

risultato è (+) ma non con lo stesso ammontare. Quanto minore è la correlazione tanto

minore sarà il rischio del portafoglio.

Esercizio portafoglio 3 titoli:

VAR1 = 1 mln

VAR2 = 5 mln correlazione tra 1 e 2 =0.6

VAR 3 = 3.5 mln correlazione tra 1 e 3 = - 0.1 Correlazione tra 2 e 3 = 0.9

Calcolare il VAR.

27

Siccome fare calcoli con n titoli è impensabile in questo modo dovremmo far ricorso al

calcolo matriciale (matrici per vettori).

Ci servirà:

• un vettore con i VAR individuali, dobbiamo mettere un vettore con titoli A, B, C

• vettore trasposto, è lo stesso solo che sarà in orizzontale

• matrice dei coefficienti di correlazione

Sarà una matrice simmetrica. Il var sarà la radice quadrata del vettore dei VAR * matrice

dei coefficienti di correlazione * vettore trasposto dei VAR. E' un modo molto più agevole

rispetto al metodo precedente. SEGUONO ESERCIZI 1, 2 VAR

Problemi e scelte VAR

1. Scelta del livello di confidenza (95% - 99% rappresentano delle scelte necessarie)

2. Scelta dell'orizzonte temporale (gli ultimi esercizi sono stati fatti con 1 gg, ma

possono essere scelti anche altri periodi)

3. Stima della volatilità (rappresenta il parametro essenziale per il calcolo, ci sono

metodi "tradizionali" (derivano dalla statistica descrittiva) e "alternativi")

4. Mapping delle posizioni (è un ragionamento volto a semplificare la struttura dei

portafogli di trading al fine di poter gestire il rischio e ridurre l'onere computazionale;

possiamo adottare diversi gradi di approssimazione che mi portino ad avere una

stima del VAR affidabile ma permettendo dei calcoli agevoli).

ES 1: se guardiamo al portafoglio obbligazionario potremmo considerare tutti i

• flussi di cassa come dei titoli ZCB, a questo punto dovremmo calcolare un tasso di

attualizzazione e una deviazione standard appropriata alla singola scadenza;

avremmo dei calcoli ingestibili.

ES 2: se guardiamo al portafoglio azionario o valutario avremmo lo stesso

• problema, l'obiettivo è avere un onere computazionale gestibile in modo da avere

calcoli agevoli.

Su molte di queste scelte pendono questioni di normativa (Banca d'Italia e Basilea), ad

esempio, i livelli di confidenza vengono stabiliti in questo modo. Pur in presenza di

questa normativa nulla vieta di calcolare il VAR per fini gestionali interni; Esempio: se la

28

normativa fissa il calcolo del Var a 10 gg, nulla mi vieta di calcolare VAR con orizzonte di

un giorno.

Scelta del livello di confidenza

Su questa pesa un limite regolamentare. Le normative di Basilea dal 1996 richiedono

alle banche di avere un patrimonio, oltre che per il rischio di credito, anche per il rischio

di mercato. Dal 2006 è stato introdotto anche un patrimonio minimo per il rischio

operativo. Dal 1996 è stato previsto che il calcolo poteva essere effettuato in due modi:

metodo standardizzato (seguire delle istruzioni fissate da Basilea tradotte poi da

Banca d'Italia) o metodo interno di misurazione dei rischi di mercato. Questo doppio

approccio è stato introdotto per i rischi di mercato e dal 2006 misura anche il rischio di

credito. Il metodo di validazione interno prevede la validazione (previo il rispetto di

alcune regole di vigilanza) presso Banca d'Italia del metodo di calcolo del VAR.

Se il test è superato il metodo presentato diventa il modo con cui la banca valuta il

patrimonio destinato a copertura dei rischi di mercato.

Se la banca ha un proprio metodo per calcolare il Var, il livello minimo di confidenza che

deve essere apportato è il 99%. Più adotto un parametro alfa (99%) alto più avremmo il

VAR aggregato alto; in altre parole più alto è il livello di confidenza, più alto sarà il

patrimonio che devo mettere da parte per i rischi di trading. La scelta del parametro non

distoglie il processo di allocazione delle risorse.

Un criterio per scegliere alfa può essere:

- mi adeguo alla normativa

- Scegliere un livello di rating che la banca mira ad ottenere (se il rating target è AA la

probabilità di default è pari allo 0,03% e potrebbe essere un punto di riferimento per

calcolare il VAR, se lo calcolo con il 99,97% e mantengo patrimonio per quelle perdite,

ci sarà un livello 0,03% che potrebbe causare il default della banca. Se lo ripetiamo

per tutti i portafogli avrò copertura per il 99,70% dei casi.

Scelta orizzonte temporale

Ha anche in questo caso un paletto temporale di normativa pari a 10 giorni. Non è detto

che possa soddisfarci ai fini gestionali, potremmo essere interessati a calcolarlo per

orizzonti temporali più lunghi o corti. Ciò che deve essere preso in considerazione è:

- holding period (quanto voglio detenere il titolo in portafoglio; spesso vengono tenuti

titoli per poche ore; se la vita è cosi intensa l'orizzonte temporale della normativa non

coincide con l'interesse della banca; ecco quindi che spesso si calcola il VAR per

orizzonti molti più ristretti). Questo fattore è legato ai due successivi:

29

- Livello di liquidità del mercato (spesso se il mercato è poco liquido l'orizzonte

temporale degli investimenti si allunga)

- Dimensione della posizione (se abbiamo molti titoli di una società è difficile pensare

che vengano venduti tutti insieme in borsa, questo creerebbe volatilità sui mercati)

Nell'allungare gli orizzonti temporali o già solo considerando i 10 gg della normativa

salta fuori il problema della stima di volatilità. Questa viene calcolata considerando le

variazioni dei prezzi per un intervallo di tempo lungo; con le variazioni giornaliere

possiamo calcolare la deviazione standard. Dovremmo considerare le variazioni non

continue ma indipendenti. Spesso però mancano i dati oppure hanno scarsa

significatività.

ES. prendiamo i prezzi degli ultimi 6 mesi di ENI (120 prezzi circa) calcoliamo i

rendimenti e le deviazioni standard. Se vogliamo calcolare i prezzi con intervalli

prefissati andremo molto più in là nel tempo.

Il fatto di allungare l'orizzonte temporale del VAR non è poi cosi scontato.

La soluzione che viene trovata ha un'ipotesi poco realistica ma condivisa anche dai

regolatori internazionali, viene quindi ipotizzato che i rendimenti giornalieri siano

indipendenti ed identicamente distribuiti (distribuzioni normali). In realtà, nel mercato

borsistico la correlazione è seriale (il prezzo del giorno precedente causa quello del

giorno successivo).

Deviazione standard a 10 gg = deviazione standard giornaliera * radice di 10 T

Stima della volatilità

I modelli utilizzati sono classificabili in due modelli: approcci tradizionali e innovativi.

I metodi tradizionali partono dalla statistica: medie mobili semplici e medie mobili

esponenziali; entrambi si basano su statistiche storiche. Analizzo un periodo storico,

calcolo un indicatore di sintesi e lo uso per il futuro. La volatilità nel tempo deve essere

però costante.

Anche qui, in realtà è un limite, sappiamo benissimo che la volatilità non è costante.

Il correttivo che la volatilità storica è quello di calcolare tutti i giorni questi valori (media

mobile).

Nei modelli della famiglia Garch si riconosce che la volatilità non è costante, si cerca

un modello matematico che descriva il comportamento della volatilità. Ciascun modello

30

si distingue per modelli funzionali diversi. La banca deciderà di adottare un metodo e

stimarne i singoli parametri. Anche in questo caso lavoriamo sui dati storici ma in

maniera diversa perché osserviamo i valori storici, uso il modello e stimo le singole

variabili.

L'unico metodo che si libera dei dati storici è quello che si basa sulle previsioni di

volatilità implicite nei prezzi delle opzioni. Osserviamo i loro prezzi e deriviamo un livello

di volatilità dei prezzi dei sottostanti. A ritroso deriviamo il livello di volatilità inserito nel

prezzo di quell'azione. Catturiamo il livello di volatilità che gli operatori si attendono nel

futuro. In realtà, i trader che lavorando sulle opzioni la volatilità attesa la prendono in

base ai dati storici.

Metodo di volatilità storica

Si chiama media mobile perché le stime vengono aggiornate continuamente, la base

dati deve essere la stessa (nell'esempio 120 gg), tutte le volte il calcolo viene rifatto per

un numero fisso di dati.

Molto spesso la media (Rm) viene considerata pari a zero diventando:

31

n-1 viene usato per problemi di aggiustamento

Il calcolo della media semplice soffre di due problemi:

- scelta di quanti dati usare

- Problema dell'effetto "eco" - "Ghost Feature", si crea un trade off tra contenuto

informativo e reattività dell'indicatore

Cerchiamo una stima mobile che reagisca bene alle nuove condizioni di mercato. In una

media semplice il problema è che più lungo è il periodo meno pesa il dato.

Per avere una stima più reattiva occorrerà diminuire i dati. Ai fini di Risk Management è

più importante la reattività.

L'effetto "eco" può essere un evento particolare (11 settembre 2001), con pochi dati le

stime delle massime perdite potenziali sono reattive a causa dell'aumento della volatilità.

Se però, nei periodi successivi il mercato si placa, in tutti i casi il campione include livelli

choc precedenti e continua ad esserci l'effetto della variazione molto alta. Quando i dati

escono dal campione invece la volatilità crolla per via dell'entrata e dell'uscita di dati di

periodi precedenti. In una media semplice tutti i dati hanno lo stesso peso.

Per ovviare a questo problema viene usata la media ponderata delle osservazioni,

l'elemento di base è sempre la distanza giornaliera tra il dato di variazione giornaliero e

la media del periodo. Il peso di ponderazione è legato al Decay Factor (fattori di

decadimento) ciascun elemento viene moltiplicato per lambda.

Supponiamo di usare 90 variazioni giornaliere, la variazione più recente verrà

moltiplicata per lambda elevato a 0. Questo valore tipicamente è inferiore a 1. I fattori più

lontani in questo modo pesano meno. Lamba è inversamente proporzionale ai giorni. A

denominatore avremmo la sommatoria di tutti i pesi.

R t-1 è il Rendimento al quadrato di ieri per lambda alla zero;

32

R t-2è il rendimento dell'altro ieri per lambda alla n- 1

Lambda deve essere un valore inferiore ad 1 ma non troppo basso. L'utilizzo della

media ponderata risolve il trade off tra contenuto informativo e reattività.

Se n è sufficientemente grande/piccolo possiamo semplificare il calcolo con questa

formula:

Con quest'approssimazione la varianza per il tempo t dipende da due componenti:

- varianza / volatilità stimata al tempo t-1

- l'ultimo rendimento legato alle nuove informazioni

Gran parte dei modelli Garch si basa su queste due componenti.

Il metodo delle medie mobili esponenziali risolve i problemi applicativi sopra menzionati

per le medie mobili semplici. Rimangono dei problemi legati a:

- numero di osservazioni da tenere in considerazione

- Scelta del decay factor

13/03/2017

Alla base dei calcoli sulla volatilità storica ci sono due assunti:

• ipotesi di correlazione non seriale (rendimenti a intervalli temporali diversi sono fra

loro indipendenti)

• volatilità stabile ovvero costante,

Queste problematiche hanno spinto gli studiosi a cercare nuove soluzioni in grado di

rappresentare meglio la correlazione seriale. Esistono due soluzioni alternative:

- modelli della famiglia garch

- modelli basati sulle previsioni di volatilità implicite nei prezzi delle opzioni

33

Modelli della famiglia GARCH

Cercano di tenere in considerazione l'eteroschedasticità (la volatilità varia nel tempo) e

l'autoregressività (i valori precedenti hanno un'influenza sui valori futuri).

La caratteristica in comune è quella di voler rappresentare attraverso una funzione il

comportamento della volatilità nel tempo. Viene scelta un forma funzionale e utilizzando

una base dati storica si stimeranno i parametri di quella funzione attraverso metodi

econometrici. MODELLO GARCH 1:1

All'interno del modello vengono considerati: 1 ritardo della variabile dipendente

rendimento e 1 della variabile del periodo successivo (ritardo).

Si basa su 3 parametri:

- "Vl" è la volatilità di lungo periodo (consideriamo per ciascuna variabile un livello di

volatilità fisiologico verso il quale si tende a tornare)

- rendimento quadratico osservato al tempo n-1

- Stima della varianza effettuata al tempo n-1

La somma dei tre coefficienti gamma + alfa + beta =1

Guardando la formula e ponendo Gamma = 0 possiamo affermare che il metodo della

media mobile esponenziale è un caso particolare del modello Garch (1:1)

I parametri sono stimati attraverso un modello econometrico (OLS; minimi quadrati).

Nel modelli Garch la volatilità risulta funzione dei 3 fattori:

- varianza di lungo periodo

- Previsione della varianza effettuata nel periodo precedente

- Nuove informazioni (incorporate nel rendimento della variabile appena osservata)

Esiste poi tutta una famiglia di modelli Garch, tutti con una forma funzionale diversa,

tarati in modo econometricamente differente. I coefficienti delle variabili indipendenti si

distinguono per:

- numero di ritardi (invece di solo n-1 anche n-2...)

34

- Prevedono un peso differenziato dei rendimenti positivi o negativi

- Impatto sulla volatilità non lineare (se ieri il titolo guadagna magari l'impatto è limitato

rispetto ad una eventuale perdita)

Problematiche applicazioni Garch

1) E' necessario disporre di un elevato numero di dati affinché la stima sia

statisticamente "robusta (è un problema per i titoli di nuova quotazione)

2) Complessità e rapida obsolescenza dei modelli adottati (durante il tempo e con il

cambio dei mercati è necessario adattare le variabili, ciò è dovuto a cambi di

persone nei mercati, gestione delle società Es: prima del 2007 il livello di volatilità e

la frequenza di eventi estremi era molto bassa)

3) Instabilità temporale dei coefficienti

4) Nella versione originale del modello l'impatto di uno shock è indipendente dal suo

segno (una forte variazione al rialzo impatta come una variazione al ribasso, questo

nei modelli più sofisticati viene modificato ma è necessario avere una base dati

ancora più grande)

Pregi applicazioni Garch

1) riconoscono esplicitamente l'esistenza di correlazioni seriali e lo esplicitano

attraverso un modello autoregressivo

2) Attribuiscono adeguata importanza alle "nuove informazioni" ovvero i rendimenti più

recenti delle variabili

3) Il decay factor della volatilità viene stimato econometricamente, utilizzando i dati

passati, e non è scelto in modo discrezionale

Metodo della volatilità implicita del prezzo delle opzioni

Partono da un presupposto diverso ragionano, invece che su dati storici, su prezzi di

mercato delle opzioni. In tutti i modelli di Pricing il Premio dell'opzione dipende da: f

(prezzo del sottostante, strike price, tempo mancante alla scadenza, livello tassi

d'interesse, volatilità attesa del sottostante).

Questo modello viene usato da:

I. market maker per definire i prezzi

35

II. dealers per capire a quale prezzo acquistare o vendere

III. price takers per capire se acquistare o no un'opzione.

Nei modelli di volatilità implicita invece di avere il premio dell'opzione come incognita,

osserviamo qual è il premio che viene quotato dai market maker. Tutti i valori che

abbiamo elencato prima (in rosso) sono tendenzialmente noti, l'unica incognita rimane la

volatilità attesa. Cerchiamo quindi di invertire la funzione per capire qual è il livello di

volatilità che mi determini quel prezzo dell'opzione.

La volatilità attesa dovrebbe rappresentare il valore che gli operatori si attendono per la

scadenza relativa all'opzione, è un metodo forward looking (guarda al futuro). E' un

metodo che guarda esclusivamente ai prezzi di mercato tralasciando i dati storici.

Dal punto di vista teorico la metodologia funziona, estraiamo dal mercato le info degli

operatori, in realtà il fatto di non usare dati storici non è così vero; gli stessi operatori

infatti per stimare quelle variabili di cui sopra avranno usato dati storici. Possiamo quindi

dire che è il metodo che si discosta maggiormente dai dati storici. Il modello di stima

della volatilità implicita ha in tutti i casi alcuni limiti:

• Fenomeno della volatility smile (se deriviamo la volatilità implicita con contratti At

The Money troviamo un valore inferiore, se invece lo facciamo attraverso in the

money o out of The money troviamo valori maggiori); a questo punto gli operatori

quale attesa

riusciranno ad

attendersi?

Una possibilità

potrebbe essere quella di

prendere l'AT THE MONEY perché quella più negoziata. In caso contrario potremmo

prendere i valori inversi delle opzioni out of the money. Sono stati creati indici di volatilità

implicita facendo medie di contratti out of the moneta, ma sono tutte metodologie

singole.

36

Oltre a questo fenomeno ci sono altri problemi:

• Modello di pricing delle opzioni attendibile e, sopratutto, adottato dagli operatori del

mercato (se usiamo il modello Black & Scholes giungiamo a dei risultati ma ciò non è

uguale ad altri modelli)

• Mercato esente da imperfezioni strutturali; il modello di volatilità è effettivamente

quella che si aspettano per il futuro; (in Italia il mercato delle opzioni OTC dei covered

warrant ha fortissimi problemi strutturali, la volatilità è spesso sovrastimata e i premi

sono troppo elevati)

• Esistenza del contratto di opzioni (spesso i prezzi non sono disponibili, è possibile

usare questo metodo per un sottoinsieme del mio portafoglio)

• Vita residua dell'opzione non coincidente con l'orizzonte temporale prescelto dal

sistema di Risk Management (se il calcolo del Var è pari ad una settimana cerco

un'opzione con scadenza medesima, ma non è detto che esista)

Ulteriore precisazione nel calcolo del VAR

Una fase principale è il Mapping delle posizioni, esso consiste nell'identificazione dei

rischi, riducendo l'onere computazionale e cercando di non perdere troppo sul fronte

della precisione. L'obiettivo è semplificare la matrice delle correlazioni.

Con un portafoglio di 3 titoli avremmo una matrice 3*3 e dovremmo stimare 3 coefficienti

di correlazione. Nel caso di una matrice 10*10 avremmo bisogno di 45 (n*(n-1)/2)

coefficienti + 10 deviazioni standard per ciascun titolo in portafoglio. Questi calcoli

diverrebbero insostenibili. Vedremo il mapping nel caso azionario e obbligazionario.

Il mapping dei titoli azionari

Un modo per ridurre la complessità dei calcoli e la dimensione dei coefficienti di

correlazione è il metodo del BETA mapping. Con questo metodo la posizione nei singoli

titoli azionari viene "trasformata" in una equivalente nell'indice di borsa.

ESEMPIO: Se abbiamo un titolo ENI con 1,2 BETA sappiamo che mediamente il titolo

ENI varia di 1,2 volte rispetto all'indice di borsa. Se deteniamo 50.000 azioni in ENI è

come se detenessimo il 120% più grande dell'indice di borsa.

Trasformiamo quindi la posizione del singolo titolo in una equivalente nell'indice di borsa.

La formula del VAR con mapping diventa:

37

Invece di avere tutte le deviazioni standard dei titoli avremmo solamente quella

dell'indice. Il risparmio sarà nella matrice dei coefficienti di correlazione, per aggregare i

VAR dovremmo sommare le diverse posizioni.

Il Var del portafoglio sarà:

Usando questa formula risparmiamo i coefficienti di correlazione ma sottostimiamo il

VAR perché non avremmo tutti i coefficienti di correlazione ma solo quelli dell'indice.

Quanto più è grande il portafoglio, più conviene usare questa formula.

L'ipotesi sottostante è quella di identificare il rischio sistematico portando ad una

sottostima del rischio.

La via di mezzo possibile è l'industry mapping che consiste nell'identificare dei

sottoinsiemi di titoli nel portafoglio per settori.

ES: titoli del settore metalmeccanico, chimico, telefonico, alimentare; possiamo calcolare

il BETA fra i titoli di ciascun settore e un indice settoriale per ogni titolo. Sarà possibile

sommare i VAR di ciascun settore (Var per i 20 titoli del settore metalmeccanico ...),

possiamo così aggregare questi 4 risultati attraverso i coefficienti di correlazione avendo

una matrice molto più agevole da calcolare. ESERCIZIO 6

Mapping nel portafoglio obbligazionario (capitolo 3 e 6)

Anche in questo caso ci aiuta con i calcoli. Se volessimo raggiungere il massimo della

precisione dovremmo considerare i titoli come sommatoria degli ZCB, dovremmo

prendere uno specifico tasso di rendimento per il valore di mercato, volatilità, matrice dei

coefficienti di correlazione che mi dice come si muovono i rendimenti tra di loro.

Se vogliamo un minimo di realismo non possiamo ipotizzare variazioni uniformi dei tassi

sulle diverse scadenze (se abbiamo duration di 10 anni ipotizzare che i tassi siano

correlati con i tassi a breve è impossibile).

La metodologia prevede:

- Analisi dei cash flow (singole cedole e rimborsi in quota capitale; primo asse temporale

con tutti i flussi delle cedole + nominale finale)

38

- Clumping (aggregazione dei flussi intorno ad un numero limitato di "nodi" temporali,

segmenti verdi di collegamento)

Semplifichiamo l'orizzonte temporale, definiamo un tasso, la volatilità e una matrice pari

al numero degli hub che mi permetta di aggregare i VAR. In questo modo teniamo conto

sia dei tassi di rendimento, della volatilità e raggiungendo l'obiettivo di avere una matrice

dei coefficienti con una dimensione gestibile.

Perderemo delle informazioni ma cercheremo di minimizzare l'errore.

Il clumping viene fatto seguendo alcune regole. Ciascun flusso di cassa viene diviso in

due parti: una attribuita al nodo temporale precedente e una a quello successivo.

ES: se prendiamo il flusso a 5 anni, una parte scadrà tra 3 anni e una tra 5 anni.

(Guardando il grafico abbiamo preso il nodo precedente e successivo). In più:

- Il segno deve essere lo stesso (se flussi in entrata lo divido in due flussi più piccoli,

uguale se in uscita)

- Facciamo in modo che la sommatoria dei valori di mercato dei due flussi uniti sia la

stessa rispetto ai valori di mercato dei flussi iniziali

- Non alteriamo il rischio di mercato; la duration media dei due flussi = Duration iniziale

39

Rispettando questi criteri otteniamo un portafoglio più semplificato con lo stesso valore

di mercato complessivo e stessa duration modificata.

Nel determinare il numero di nodi dobbiamo tenere in considerazione che:

- più aumento il numero di nodi più sarà precisa la stima

- Se ho un numero di nodi più basso avrò una semplificazione maggiore

Nel mettere i nodi dobbiamo sapere che:

- i tassi a breve tendono a variare più intensamente e più frequentemente di quelli a

medio-lungo termine

- Nelle scadenze brevi, tendono a posizionarsi un maggior numero di flussi di cassa

(molto spesso le prime scadenze sono coperte da contratti derivati)

17/03/2017

40

Pregi e difetti metodo parametrico

difetti

I principali sono da ricondurre all'ipotesi sulla costruzione del metodo che si basa

sulla distribuzione normale dei fattori di rischio. Le distribuzioni reali spesso non sono

normali ma sono affette da due tipi di problemi:

- Lepto - Curtotiche (la frequenza degli eventi estremi in realtà è più elevata di quanto

classificato dalla normale; Fat Tails; con l'approccio parametrico si sottostimano le

perdite potenziali; un correttivo può essere quello di calcolare con multiplo del 99,50%

ma non è precisa)

- Le distribuzioni sono spesso asimmetriche (la normale è perfettamente simmetrica, le

distribuzioni reali sono invece affette da asimmetria; anche questo porta ad errori di

sovra o sotto stima; la distribuzione reale non è una gaussiana normale; tutti gli altri

metodi del VAR rimuovono questa ipotesi)

pregi

I principali :

- first mover (è stato il primo ad essere proposto, ciò ha ricadute sulla maggiore

disponibilità di software basati con il calcolo del metodo parametrico; più persone lo

conoscono, esistono più banche dati)

Gli approcci alternativi al metodo varianze e covarianze nascono per porre limiti ai difetti

dell'approccio parametrico. I modelli alternativi possono essere i cd "Modelli di

41

simulazione", hanno dei tratti comuni rispetto a questo approccio: Non formulano

alcuna ipotesi relativa alla forma funzionale della distribuzione dei rendimenti dei fattori

di rischio.

Nelle simulazioni storiche vengono derivate le distribuzioni empiriche derivanti dalla

serie storica dei rischi di mercato (si da per assunto che i fattori di rischio siano

normalmente distribuiti)

Nelle simulazioni Montecarlo si ipotizza una distribuzione di rendimenti, invece di dire

che è normale si analizzano i rendimenti passati cercando di creare una distribuzione

che spieghi bene i valori; partendo da questa distribuzione teorica prescelta si effettua il

calcolo del rischio attraverso un'estrazione casuale di valori (nessuna ipotesi standard

della normale ma scegliamo una distribuzione che spieghi bene il comportamento dei

rendimenti nel periodo storico)

Simulazione storica

Non viene assunta ex-ante nessuna specifica forma funzionale ma si utilizzano le

variazioni registrate in un periodo passato. Le fasi di lavoro sono:

- selezione di un campione di rendimenti giornalieri del passato (scarichiamo i prezzi di

chiusura di azioni per un campione elevato e calcoliamo la variazione di prezzo

giornaliera; nel metodo parametrico andremmo a calcolare la deviazione standard)

- Rivalutazione del portafoglio in corrispondenza di ciascun valore storico (prendo i

rendimenti per i diversi titoli e simulo un nuovo valore per ciascuna posizione)

- Costruzione della distribuzione empirica di frequenza (prendiamo i valori simulati e li

ordiniamo dal migliore al peggiore o viceversa)

- Individuazione del percentile desiderato (individuiamo la parte che ci interessa, se

calcoliamo il VAR 99% di probabilità trascurando l'1% tolgo e non considero i 5 valori

peggiori e prendo il 6o ultimo valore e quello è il Value at risk)

Pregi:

- E' facilmente comprensibile e comunicabile (non solo il numero finale ma anche il

procedimento del calcolo; il fatto che l'indicatore sia semplice va a conforto sia dei

clienti che del personale della banca)

- Non è necessario esplicitare una forma funzionale della distribuzione dei rendimenti

- Non è necessario stimare la matrice varianze - covarianze (risparmio di calcoli ed

eventuali errori; le variazione sono implica nei dati storici che uso)

- Tratta adeguatamente posizioni con andamento non lineare o non monotono

(possono esserci portafogli in cui le variazioni di valore non sono sempre crescenti

42

con guadagni, succede con i derivati; un caso particolare è lo STRADDLE in cui i

guadagni possono esserci sia se il prezzo sale o scende)

Limiti:

- onerosità computazionale sopratutto se in portafoglio ci sono tanti titoli azionari diversi

- Ipotesi di stabilità della distribuzione storica dei fattori di mercato (ipotizziamo una

certa staticità dei rendimenti)

- Limitatezza delle serie storiche disponibili (sopratutto se dobbiamo stimare il VAR con

orizzonte > 1 giorno; le basi dati giornaliere o mensili che siano non è detto siano facili

da trovare)

Nel caso in cui dovessimo calcolare il VAR con orizzonte > di 1 giorno si utilizza la

tecnica del BOOTSTRAPPING.

Supponiamo di calcolare il VAR con orizzonte 1 settimana, partiamo da rendimenti

giornalieri e costruiamo i rendimenti settimanali estraendo casualmente 5 rendimenti e

simuliamo il prezzo di una settimana tramite la seguente formula:

Pt = P0*(1+rc1) * (1+rc2) * ...

Calcoliamo la variazione del valore, reiteriamo il processo n volte, tagliamo della

distribuzione di risultati simulato ad un percentile desiderato. SEGUE ESERCIZIO EXCEL

Simulazioni Monte carlo

In questa tipologia viene generato uno scenario casuale sulla base di una distribuzione

teorica dei rendimenti di mercato, che deve dimostrare al meglio il comportamento

empirico del dato di mercato in analisi. La scelta della distribuzione potrebbe portare alla

43

scelta della Normale ma non è detto a priori. Scelta la distribuzione generiamo dei

possibili scenari. Fasi operative:

- identifico una distribuzione che identifichi il fenomeno

- Stima dei parametri della distribuzione prescelta

- Simulazione di un elevato numero di scenari (esempio: 10.000) - significa generare

una variazione percentuale del titolo per il periodo successivo ed utilizzare questi dati

per provare scenari positivi o negativi

- Valutazione del portafoglio in corrispondenza di ogni scenario

- Taglio della distribuzione dei valori del portafoglio al percentile desiderato

Generazioni degli scenari:

- estrazione di un numero uniforme da una distribuzione (0,1)

- Determinazione dell'inversa della funzione di ripartizione della distribuzione prescelta

Selezioniamo un intervallo tra 0 e 1 e identifichiamo la X corrispondente.

Esempio: se prendo 0,31 cerco il valore 31% nella distribuzione cumulata e della

normale standardizzata e lo determino usando l'inverso. Questo procedimento può

essere ripetuto n volte. Avremmo una serie di rendimenti in grado di rivalutare il

portafoglio. Ciò che è critico è capire quale distribuzione utilizzare.

Pregi delle simulazioni monte Carlo:

- si presta ad essere utilizzato con qualunque forma funzionale della distribuzione dei

rendimenti

- Permette di valutare portafogli che hanno profili non lineari e non monotoni

44

Limiti:

- per valutare portafogli è necessario stimare la matrice covarianze

- Onerosità computazionale (sopratutto se lo ripetiamo n volte)

- "Model Risk" (nel parametrico l'ipotesi è che la distribuzione dei fattori di rischio sia

normale; nella simulazione storica prendo i valori degli ultimi anni/periodi; qui si

introduce un rischio di modello perchè il Risk manager decide lui una distribuzione

che potrebbe anche non indicare cosa succederà nel futuro)

Una logica simile a quella delle simulazione sono gli STRESS TEST, ovvero delle prove

di carico della tenuta della banca anche in condizioni estreme. Quando calcoliamo il

VAR ignoriamo volutamente una certa % di dati peggiori. In più, i parametri

(dev.standard) sono tarati in modo da approssimare meglio i valori futuri.

Periodicamente vale la pena che la banca si chieda, al di la della quotidianità, se è

capace di resistere a condizioni estreme, con probabilità più bassa ma comunque non

trascurabile.

Banca d'Italia richiede alle banche di compiere periodicamente stress test. Essi cercano

di produrre una misura di massima perdita potenziale che non rifletta le condizioni di

mercato recenti ma particolarmente turbolente ed impegnative. Prima degli stress test si

effettua una valutazione storica estraendo dati in un periodo molto perturbato per vedere

se la banca sia in grado di far fronte alle perdite.

Gestionalmente nell'ultimo esercizio abbiamo preso i dati dei giorni precedenti, negli

stress test invece prendiamo i rendimenti in un periodo diverso come il 2008, dopo il

fallimento di Lehman Brothers. Otteniamo in questo modo valori simulati per periodi

diversi di mercato. Il calcolo del VAR non rifletterà la condizioni attuali ma di un mercato

particolarmente in crisi. A questo punto la banca si chiederà se quelle perdite possano

essere assorbite. La valutazione di stress test viene effettuata periodicamente.

Basilea impone di effettuare stress test almeno 1 volta all'anno, ciascuna banca userà

un metodo diverso seguendo i requisiti minimi. A livello l'EBA sottopone le banche

europee di dimensione significativa a stress test, ogni paese deve quindi indicare un

numero di banche importanti (in Italia 6), in questo caso sarà l'EBA ad indicare le ipotesi

e gli scenari da utilizzare. Lo fa su portafoglio di mercato ma anche su quello

immobilizzato.

45

20/03/2017

Modelli VAR

Alcuni critiche:

- trascurano gli eventi eccezionali (il VAR calcola la massima perdita potenziale con

un determinato livello di probabilità, trascura gli eventi "fat tails" dichiaratamente; è un

indicatore gestionale per uso quotidiano, per valutare se la banca sopporta gli eventi

eccezionali esistono gli stress test)

- Trascura la relazione di clientela (è un problema che può esistere nel calcolo, non è

rivolto al rischio di mercato quanto al rischio di credito; supponiamo che un'impresa

chieda un prestito, la stima del VAR impone la non concessione. Se il metodo viene

valutato meccanicamente la risposta è negativa, se invece vengono valutati in modo

diverso la banca potrebbe concedere quanto richiesto sopratutto per non perdere il

cliente)

- Si basa su ipotesi irrealistiche

- Produce risultati divergenti (3 metodi: parametrico, simulazione storica e

simulazione Montecarlo con possibili combinazioni dei dati e risultati diversi)

- Amplifica l'instabilità dei mercati (da quando si sono diffuse queste misurazioni

sono aumentati gli eventi estremi; la diffusione in tutte le banche ha creato

automatismi tali per cui si tendono ad innescare spirali di volatilità in caso di ribassi

dei mercati, questo perché molti operatori si muovono nella stessa direzione tutti

insieme)

- Arriva troppo tardi, quando il danno è fatto (se il calcolo viene fatto per giorni

precedenti al verificarsi di un crollo di mercato la perdita del VAR sarà comunque

superiore rispetto a quella stimata)

- Non valuta l'entità delle perdite potenziali eccedenti il VAR (se pensiamo al grafico

della gaussiana identifichiamo il punto e trascuriamo altri eventi)

- In alcuni casi non rispetta la proprietà di sub-additività (la diversificazione

tendenzialmente abbassa il rischio, significa calcolare il VAR del portafoglio e questo

risultato è superiore delle singole componenti)

Sulle ultime due critiche è stato costruito un indicatore alternativo che prende il nome di

Expected shortfall. Nel progetto di Basilea IV questo metodo potrebbe diventare lo

standard di misurazione dei rischi di mercato.

Uno dei grandi problemi che abbiamo detto è di non quantificare le perdite eccedenti il

VAR, ciò può portarci ad alcuni paradossi.

46

Focus sulla call option: Supponiamo di avere strike a 10 euro, premio 1 euro; il prezzo

corrente di mercato = 12; opzione In the money. Per calcolare il VAR stimiamo il prezzo

al ribasso del sottostante, con il 99% delle probabilità il prezzo non dovrebbe scendere

più di 10,80; in questo caso esercitiamo e il guadagno è 0,8 mentre la perdita totale al

netto del premio è 0,20. Se invece stimiamo che il prezzo scenda fino a 9 euro,

all'interno di questo intervallo la massima perdita è l'intero premio 1 euro.

Esempio:

Portafoglio A: opzioni acquistate, sottostante 1000 euro e premio pari a 100, VAR

stimato (95% - 10gg) = 100. Stimare il VAR significa quale potrebbe essere l'oscillazione

del prezzo del sottostante e vedere a seguito della massima oscillazione il prezzo

dell'opzione.

Portafoglio B: vendita di futures su sottostante pari a 1000, VAR stimato (95% - 10 gg) =

100.

Confrontando i due portafogli dal punto di vista del VAR sono uguali, sembrano avere la

stessa rischiosità. La logica delle due posizioni è però diversa, il 100 del portafoglio A

rappresenta la massima perdita potenziale e assoluta del portafoglio (è fissato un prezzo

massimo, più di quello non si perde), nel futures invece in caso di aumenti di prezzo la

perdita è potenzialmente infinita. Il portafoglio B è quindi molto più rischioso ma non

abbiamo una stima di questa possibile perdita.

L'expected shortfall è una misura del valore atteso che il portafoglio potrebbe subire

nell'intervallo (1-c) dei casi peggiori nell'orizzonte temporale T. Quindi calcoliamo la

perdita massima in un x % dei casi peggiori. C è il livello di confidenza.

SEGUONO 4 ESERCIZI VAR CON SIMULAZIONE

Backtesting del VAR

è una verifica a posteriori dell'efficacia della formula, verificheremo:

- numero di errori (ovvero il numero di giorni in cui le perdite registrate nel portafoglio

risultano superiori rispetto a quanto stimato rispetto al VAR)

• supponiamo di calcolare il VAR al 95% e facciamo la verifica due anni dopo circa

500 gg dopo, ci aspettiamo di avere perdite superiori al Var 5 giornate ogni 100,

ovvero 25 volte. Se troviamo che le perdite non sono mai state superiori al Var

avremmo sovrastimato.

47

Viene quindi confrontato il numero di giorni in cui le perdite sono state superiori al VAR e

verificare la coerenza rispetto all'intervallo di confidenza.

- Dimensione delle eccezioni (di quanto sono le perdite nei giorni in cui il portafoglio

sono > rispetto il VAR

Altro parametro da valutare è la distribuzione dei giorni in cui le perdite effettive sono

superiori al VAR.

Dal punto di vista organizzativo è desiderabile avere un VAR non eccessivamente

variabile. Bisogna commisurare l'efficacia del sistema cercando di avere una misura

stabile nel tempo.

Una volta focalizzata l'attenzione sul numero degli errori, dimensione delle eccezioni,

come sono distribuiti gli errori, dovremmo prendere decisioni sul metodo di calcolo. In

caso di sovrastima o sottostima bisognerà adattare il modello. Le stesse autorità di

vigilanza fanno valutazioni periodiche in caso di metodi interni validati.

Per capire se il modello usato funziona vengono usati due test: kupiec e Lopez.

Entrambi si basano su test di ipotesi, viene formulata un'ipotesi nulla; se rifiutata il

modello è inadeguato e si dovrà modificarlo. Tre tipologie di test:

- test sulla frequenza delle eccezioni (quante volte le perdite sono superiori al VAR)

- Test basati su una funzione di perdita (si tiene conto del numero di eccezioni e della

loro grandezza)

- Test basati sull'intera distribuzione dei profitti e perdite (confronto dell'andamento del

portafoglio e identifico quando il VAR sbaglia per eccesso difetto e cerchiamo di avere

un valore che minimizza la distanza tra VAR e valori effettivi registrati)

In tutti i casi l'oggetto del test è l'ipotesi nulla che è quella che sia corretto.

48

L'ipotesi nulla è che la frequenza delle eccezioni Pi grego = alla frequenza empirica delle

eccezioni rilevate = p. Se rileviamo per un anno avremmo 252 giorni lavorativi, il numero

di eccezioni = 5 Pigreco= 5/252. La frequenza teorica è data dal complemento

dell'intervallo di confidenza (se calcoliamo il Var al 99%, la frequenza teorica desiderata

= 1%).

Se l'ipotesi è vera la probabilità di osservare un numero x di eccezioni è data dalla

distribuzione binomiale.

se volessimo calcolare la probabilità su 4 eccezioni avremmo:

Il risultato indica il 13,40% di probabilità di riscontrare 4 eccezioni nel caso calcolassi il

VAR al 99% con orizzonte di 250 giorni.

Se vogliamo calcolare per diversi valori di eccezioni ripetiamo il calcolo per diversi x

(x=1; x=2; x=3; x=4; x=5)

Se già il modello trova 3 errori è preoccupante, se riscontriamo più di 5 errori abbiamo

solo il 4,1% che il modello non faccia errori. Dovremmo decidere a quale livello accettare

o meno il test sul VAR. Per la

vigilanza il VAR deve essere

calcolato al 99% e il backtesting

deve essere fatto annualmente. Da

zero a 3 errori semaforo verde,

quattro o cinque errori semaforo

giallo, numero superiore semaforo

rosso il modello è inutilizzabile prima

di aver fatto modifiche.

Se scegliamo 4 come numero massimo di errori, sappiamo che ce il 10,8% di probabilità

di mettere mano ad un modello corretto, ma che ha prodotto errori solo per condizioni

particolari di mercato.

49

Secondo Modulo Risk

Cap 5, 11, 12, 13, 14, 15 (saltare da 15.4 a 15.8), 16, 18, 19, 20 (no 20.5 e 20.6), 21, 22, 26 (scaricabile

da Moodle)

L'attività creditizia e il rischio di credito delle banche italiane

Iniziamo questa parte del corso dimensionando il fenomeno del rischio di credito

all'interno delle banche italiane. Il rischio di credito nasce dall'attività creditizia, questi

anni sono stati difficili per l'evoluzione del credito che hanno portato a scenari del tutto

nuovi. Due crisi: mutui subprime e debito sovrano; entrambi con un impatto

nell'erogazione del credito molto forti. Il risultato dopo 10 anni:

- forte contrazione del credito

- Sofferenze bancarie molto alte (tanto da portare alla discussione dei NPL a livello UE)

Vedremo una serie di grafici (saranno poi disponibili su moodle)

L'evoluzione dell'attività creditizia è mostrata dal 2009 fino al 2015, le banche sono state

divise con criterio dimensionale in quanto la crisi ha avuto impatto diverso tra grandi e

piccole. Divideremo il grafico visto a lezione in tre parti:

- 2009 - 2010 anni che riflettono la grande crisi dei mutui; si assiste ad una contrazione

del credito delle banche estere (le banche italiane hanno sopportato meglio per una

vigilanza più severa); le grandi banche riducono anche loro il credito.

• Una misura di regolamentazione prudenziale è il COEFFICIENTE DI SOLVIBILITA'

=Patrimonio di vigilanza / attivo esposto al rischio >= 8% Il patrimonio di vigilanza

deve essere almeno pari all'8% per gli attivi ponderati per il rischio. Le banche

nell'attivo hanno investimenti (rischi di mercato) e prestiti (rischio di credito). Più

l'attivo esposto al rischio cresce, più devo avere capitale in modo da coprire le

potenziali perdite. L'esposizione che si viene a creare per una banca in caso di

erogazione di un mutuo è divisa in più parti, in particolare la parte sulla quale

rischiamo di perdere è variabile, perché dipenderà da come le banche si coprono.

La parte esposta al rischio non è quindi tutta ma solo la quota sulla quale può

esserci la perdita. Una possibile strada può essere quella di misurare questo rischio

con i metodi di Basilea.

• Le grandi banche, in quegli anni, sono quelle che perdono di più, perché sono

quelle maggiormente esposte nei mercati internazionali attraverso i portafogli di

investimento; ciò ha portato alla necessità di incrementare il patrimonio di vigilanza.

(Esempio: UniCredit; la raccolta di capitale in momenti difficili è molto dispendiosa;

la leva può essere quindi limitata; spesso si cerca quindi di ridurre l'erogazione di

50 credito andando a fermare il denominatore della formula del coefficiente di

solvibilità)

• Le piccole banche con un'attività limitata di investimento non avevano portafogli

rischiosi esposti nei mercati internazionali e su questo fronte hanno incassato meno

perdite, senza attingere a nuove risorse patrimoniali, continuando l'attività di

prestito. Questo dato è confermato da un movimento dei depositi, avvenuto dalle

grandi banche in favore di quelle più piccole

- 2011 - 2012 crisi del debito sovrano; il ciclo dei prestiti riprende grazie agli aumenti di

capitale avvenuti, finché nel 2011 - 2012 un problema sul fronte degli investimenti

tocca tutte le banche. Il problema dei titoli di stato genera condizioni del tutto

equivalenti. Le banche vennero accusate di utilizzare i fondi erogati dalla BCE per

comprare BTP, molto vantaggiosi. L'obiettivo, a prima vista, è cercare rendimento, in

realtà le banche hanno altresì un ruolo sociale (se lo stato non trova soddisfazione

dalle banche domestiche significa che dovrà rivolgersi all'estero e pagare molto di

più). Le normative di vigilanza attuali non sono comunque in grado di limitare

l'acquisto di titoli di stato per le banche domestiche, si è dunque parlato a livello di

Basilea di: fissare un limite di esposizione sui titoli sovrani oppure considerarli

rischiosi.

- 2012 - 2015 recessione economica (trasmissione della crisi nel mercato reale).

L'economia in generale perde in tutti i lati (fornitori, clienti, imprese...) andando a

ridurre ulteriormente il credito concesso dagli intermediari. La tendenza alla

contrazione del credito si è protratta fino al 2015 e, ancora tutt'oggi la situazione non

è del tutto risolta. Il problema del credito può essere poi affrontata in due modi:

quantità e qualità.

Il tasso di deterioramento del credito ci fornisce un dato oggettivo della diminuzione della

qualità del credito. Al diminuire del PIL assistiamo ad un aumento del tasso di

deterioramento del credito. Nel 2009 si è assistito ad un degradamento generale della

qualità del credito. Oggi le banche hanno nei bilanci prestiti a medio-lungo termine

erogati su soggetti fortemente rischiosi. I crediti deteriorati dal 2009 sono aumentati in

maniera esponenziale. Sul totale del nostro sistema creditizio, i crediti in bonis (non

deteriorati) rappresentano l'82%, i prestiti in sofferenza sono circa il 18%.

Nello stato patrimoniale aggregato delle banche italiane notiamo che a marzo 2016 i

prestiti sono 1.800 miliardi circa, i depositi da residenti sono 1.400 miliardi circa; ciò ci fa

riflettere sul fatto che il costo della raccolta per le banche è 0 e nel decidere il tasso le

banche tengono conto di diversi fattori: costo del denaro, rischio di credito, rischi di

copertura, costi di gestione e monitoraggio. Il sistema qui spiegato è utilizzato

esclusivamente in Italia, negli altri paesi è difficile trovare una quota di raccolta a zero

così alta. Ciò spiega anche gli sforzi per aggregare le banche italiane in modo da avere

51

più forza contro eventuali aggressioni estere, proprio perché il canale della raccolta è

stabile e non costoso.

A conto economico la gestione del rischio di credito (attività di finanziamento) lo trovo

sotto il risultato della gestione (il risultato dall'attività di raccolta/intermediazione al netto

di tutti i costi). Nel 2013 l'attività creditizia erogava tutta la gestione della banca 22

miliardi di risultato vs rettifiche su crediti di 23 miliardi. Già nel 2015 la situazione

migliora. L'impatto sul capitale del periodo di crisi ha portato ad una dinamica in crescita

dei ratio patrimoniali. L'adeguatezza patrimoniale delle banche viene vista attraverso

diversi indicatori oltre il coefficiente di correlazione.

La vigilanza quando impone di essere solido non misura la dotazione patrimoniale

guardando solamente l'equity ma anche i titoli ibridi. Il patrimonio di vigilanza è dato

da: equity + debito subordinato. Il debito subordinato rappresenta prestiti che la

banca riceve dagli investitori con un ranking inferiore rispetto a tutti gli altri creditori.

Questa componente è stata riformata da Basilea 3 (dopo la crisi), in realtà questo

capitale, di fatto, non è mai stato richiamato per coprire perdite onde evitare danni

reputazionali alle banche. Ecco quindi che non ha ragione di essere chiamato

patrimonio, le misure di Basilea 3 andranno a scorporare questa parte.

Il coefficiente di patrimonializzazione (PV/ VA) nel 2007 - 2008 è stato intorno al 10%

(per legge 8%). Ad oggi la quota è pari al 13%. La differenza rispetto al valore 10% di

qualche anno fa è che comprendeva il debito subordinato; il 13% di oggi è solamente

della parte equity (CET1 ratio), questa richiesta di solidità è stata legittimata dalla

vigilanza. Tutto ciò è avvenuto da un lato per spinte di mercato, dall'altro per le

modifiche che saranno introdotte da Basilea 3 fino al 2019.

In termini di patrimonializzazione siamo in linea con gli altri paesi europei, ciò emerge

dagli stress test condotti dall'EBA verso le grandi banche dei singoli Stati nazionali.

L'obiettivo è capire se le banche sistemiche siano in grado di sorreggere a possibili

shock. Il coefficiente di patrimonializzazione è aumentato dal 2011 al 2015 di 3 punti

percentuali. Il requisito nelle varie modifiche di Basilea non sale oltre l'8% quindi in

generale i sistemi bancari europei sono in grado di sopportare eventuali shock negativi.

Nell'analisi condotta dall'EBA non si considera solo l'impatto sul credito, ma anche i

rischi operativi, di mercato; l'impatto è comunque dettato in primis dal rischio di credito.

Introduzione al rischio di credito (introduzione terza parte, Capitolo 10)

Il rischio di credito rappresenta la possibilità che una variazione inattesa del merito

creditizio di una controparte generi una corrispondente variazione inattesa del valore

corrente della relativa esposizione creditizia. La controparte del prestito può subire

difficoltà finanziarie, peggiorando il suo merito creditizio, generando una variazione

inattesa del merito di credito.

52

Il classico rischio di default comunemente immaginato è solo una delle possibili

componenti del rischio di credito, altri concetti chiave sono:

I. rischio di insolvenza e di migrazione (peggioramento della solidità del cliente che

comporta perdite non necessariamente pari al default; un cliente che parte da AAA

può migrare verso altre classi di rischio; lo vedremo con il modello CreditMetrics)

II. Rischio come evento inatteso (è fisiologico che una quota dei prestiti non vengano

restituiti, la componente rischiosa è la variabilità del rischio; se una banca ha una

quota stabile di perdite potrà organizzarsi per coprirla, non è un rischio; chiaramente

non è possibile sapere la parte incerta; con questo si intende la variabilità della

perdita attesa)

III. Grado di estensione dell'esposizione creditizia (nasce da tutti gli impegni assunti

dalla banca, ovvero tutte le esposizioni fuori bilancio come ad esempio: garanzia a

copertura di un'obbligazione del cliente)

Il rischio di credito può avere 5 principali cause:

• Rischio di insolvenza (possibilità di recupero del capitale finanziato su

quell'esposizione; esistono forme di finanziamento che generano un rischio più

contenuto perché permettono un recupero più facile e consistente. Due forme di

finanziamento: mutuo (garanzia sull'immobile e polizze temporanee caso morte) e

APC (linea di fido attivabile in base alle esigenze del cliente). Dipende dai meccanismi

messi in piedi dalla banca per tutelarsi.

• Rischio di migrazione

• Rischio di recupero (tempo di recupero molto lungo, dovremmo quindi attualizzare

l'esposizione del prestito ma con quale tasso di sconto?)

• Rischio di esposizione

• Rischio di spread (rappresenta un condizionamento esterno; consiste in momenti di

turbolenza di mercato in cui gli spread salgono, non per instabilità del soggetto

finanziario, ma per rischi esogeni come il rischio paese. Ciò avrà un impatto sul

rischio di credito.)

In generale, se il soggetto migra in classi di rischio peggiori porta ad alzare il tasso

d'interesse, il quale abbatterà il valore attuale del prestito.

Le componenti di rischio misurate sono due:

- perdita attesa (la perdita che si attende di conseguire la banca a fronte di una

posizione creditizia)

- Perdita inattesa (rischio che la perdita si dimostri a posteriori superiore a quella attesa

inizialmente stimata; è questa la componente vera di rischio per le banche perché non

sono previsti fondi a copertura)

53

Se la perdita attesa di ogni portafoglio è pari alla somma di quello che ci si aspetta di

perdire sui singoli prestiti (non diversificabile), allora la perdita inattesa è inferiore

rispetto alle somme dei singoli prestiti. Un'adeguata diversificazione può contribuire a

ridurre sensibilmente le potenziali perdite.

L'obiettivo della valutazione del rischio di credito si identifica con l'individuazione:

- tasso da definire al finanziamento

- quantità di capitale da accantonare:

Quando una banca applica un tasso al cliente finanziato vorrà recuperare tutti i costi che

sostiene per realizzare quell'operazione e un ricarico di guadagno. Il tasso attivo sarà la

somma di una serie di indicatori che rispecchiano l'onerosità del prestito per la banca, il

tasso applicato si compone di:

Tasso attivo applicato al cliente = Costo della provvista (funding) + spread

All'interno del costo della provvista troveremo rispecchiate le condizioni di:

- tasso di mercato

- Spread della stessa banca, finanziamento che fa la banca stessa

Lo spread, che può essere visto come un caricamento, dipenderà poi da: costi operativi,

perdita attesa (lo vedremo come copertura della perdita attesa ed inattesa),

remunerazione per il capitale/equity necessario a coprire la perdita inattesa.

1a componente rischio di credito: Perdita attesa

Viene calcolata attraverso il prodotto di 3 fattori:

- EAD (exposure at default; valore dell'esposizione al rischio/ il valore del finanziamento

che si rischia di perdere; non è detto che tutto sia a rischio, avendo garanzie

sottostanti l'esposizione non equivale a tutto l'ammontare del finanziamento, è quindi

la quota di finanziamento a rischio di perdite. Per fare un esempio: le APC o i fidi non

sempre chiedono garanzie. Ciò non riguarda solo i contratti commerciali ma anche i

derivati. L'esposizione si può generare anche se la banca si impegna a garantire un

finanziamento, siamo nel campo delle fideiussioni)

- PD (Probability of default; rappresenta la probabilità di insolvenza della parte

finanziata, ci dice qual è la probabilità che un determinato soggetto non ripaghi

puntualmente il proprio debito; <Rating> che fornisce sempre un giudizio sul merito

creditizio)

- LGD (Loss Given Default; tasso di perdita attesa in caso di insolenza è calcolata

come complemento del tasso di recupero (1 - Recovery Rate), è un fattore che ci dice

54

quanta parte dell'esposizione al rischio andremo a perdere o che comunque non

recupereremo con una probabilità pari alla probability of default; tendenzialmente si

calcola per via indiretta, si calcola il tasso di recupero e di conseguenza troveremo

questa variabile) EL = EAD * PD * LGD

Esempio:

Immaginiamo di avere una scala di rating da tripla AAA a C, in ogni classe abbiamo la

probabilità di default e proviamo a stimare la perdita attesa su un portafoglio di 100

aziende con rating BB. La tabella ci fornisce il tasso di probabilità pari all'1%. E' un

portafoglio di prestiti omogenei di 100.000 euro, la banca stima di recuperare il 30%

dell'esposizione.

La stima della perdita (EL) sarebbe= 1% * (100*100.000) * 70% = 70.000

Ove 70% è il complemento del tasso di recupero

Tasso di perdita attesa: 70.000 (EL) / 10.000.000 (EAD) = 0,7%

La stima dell'EAD

Exposure at default include due categorie di prestiti:

- che permettono di calcolare un'esposizione certa (mutui con piano di rientro

prestabilito)

- Che NON permettono di calcolare un'esposizione certa ma variabile (APC, fidi...)

Il calcolo nel primo caso è più semplice, nel secondo caso invece consideriamo:

- Quota di fido considerata; <DP - Drawn position> quanta parte del fido messa a

disposizione del cliente è stata utilizzata

- Quota di fido non utilizzata; < UP - Undrawn position > con tutta probabilità più il

cliente avrà tensioni finanziarie più utilizzerà la liquidità, bisognerà calcolare il tasso di

utilizzo della quota utilizzata (UGD, usage given default)

Nelle esposizioni a valore incerto EAD = DP + UGD*UP

Il rischio sulla quota inutilizzata può essere gestita dalle banche caricando questa parte

all'interno del tasso attivo di finanziamento oppure attraverso il tasso d'interesse

attraverso una commissione (commitment fee; serve per strutturare il profilo di interesse

della banca). In questo caso, le banche italiane non utilizzano questa commissione,

perché non applicano una quota sulla parte non utilizzata, ma applicano la commissione

onnicomprensiva o di disponibilità fondi (introdotta dal governo monti nel 2012, nel TUF

si afferma che le operazioni creditizie possono trovare remunerazione attraverso

55

l'applicazione di: interessi sulla quota del prestito utilizzato e un'unica commissione

(onnicomprensiva) che è pari allo 0,5% trimestrale calcolata sul fido accordato (max 2%

annuo). Nell'esempio di prima: se 100 è il fido, 20 è utilizzata DP, 80 parte inutilizzata

UP; in italia la commissione viene applicata sul 100, mentre nei paesi anglosassoni è

applicata sugli 80. Di fatto il cliente si trova a pagare interessi su quanto chiesto e

commissione su tutto. E' una maggiorazione di interessi.

La stima della LGD

E' il tasso di perdita attesa in caso di default che si ricava per differenza rispetto al tasso

di recupero stimato. I fattori che incidono sul potenziale tasso di recupero di un prestito

sono molti:

- garanzie e la sua qualità (legate alle caratteristiche tecniche del progetto); se

pensiamo ai titoli, essi possono avere una volatilità diversa tra loro, per questo la

banca li valorizza sempre ad un valore più basso; presenza di subordinazione o

seniority, la forma tecnica del contratto può offrire una protezione giuridica oppure no

- Contesto economico di riferimento (ciò richiama alle garanzie, spesso garanzie

immobiliari con un mercato fermo/ in decrescita perdono di valore) dovremmo

considerare anche ai tassi di interesse. L'escussione della garanzia avrà bisogno di

tempo

- Efficienza della funzione di recupero crediti della banca (i tempi sono dovuti dalla

tipologia di garanzia prescelta ma anche dall'efficienza interna)

- Caratteristiche tipiche del soggetto finanziato (in base a: tipologia di attività svolta -

settore produttivo, localizzazione geografica, gravità dello stato di dissesto)

Ci sono diverse metodologie per stimare il tasso di recupero, la prima che vedremo è il:

- WORKOUT LGD (è quella più comune perché la maggior parte dei prestiti non sono

negoziabili; la banca dovrà calcolarsi internamente il tasso di perdita e recupero

utilizzando dati storici; i tassi medi di recupero che vengono calcolati per famiglie di

clienti (gruppi omogenei: retail, small business, corporate e large) vengono utilizzati

come guida per stimare i valori futuri. Questa procedura risente di: rarità dell'evento

default e scarsità della base dati.

56

Calcoliamo ora l'EL e il tasso di perdita di due prestiti:

57

PRECISAZIONE SULL'LGD...

Questa misura va considerata in senso finanziario e non in maniera puramente

contabile, occorre considerare l'effetto tempo:

- attualizzando tutti i flussi del processo di recupero sul proprio orizzonte temporale

- Utilizzando un tasso di sconto sui flussi

LGD tuttavia è possibile calcolarlo attraverso altri due modi:

- Valutazione basate sull'LGD medie di sistema, il problema è che non considera le

peculiarità del portafoglio crediti di ogni banca

- Utilizzo dei dati ricavabili dal mercato dei Corporate Bonds (Metodo del Market LGD)

--> quanta parte del bond riusciremo a recuperare RR per differenza ricaviamo LGD. Il

problema è che la data base difforme dalla composizione media del portafoglio

bancario di una banca europea; i titoli devono essere negoziati a mercato, ha un

raggio di applicazione per la banca molto ristretto

Segue esercizio con le duration:

58

Dopo 6 mesi recupero 0.5 milioni NON 5.

59

Quando consideriamo la perdita attesa come prodotto tra i tre fattori, assumiamo come

dato il fattore dell'LGD, non considerando eventuali cambiamenti, esiste quindi il c.d

Rischio di recupero. Esso Impatta sul rischio di credito complessivo, in quando

abbiamo visto che l'LGD deriva dalla stima di più elementi. Quindi questo valore può

variare, se non ci fosse alcuna variazione l'unico elemento modificabile sarebbe l'LGD.

Nella realtà dei fatti l'LGD varia, e all'interno dei modelli di rischi di credito bisognerebbe

farlo variare. Stimando scenari i cui l'LGD e la probability of defaul siano variabili.

La nuova variabile aleatoria sarà:

Nella realtà molti modelli trascurano del tutto il rischio di recupero, prendendo l'LGD

certa; se lo considerano trattano l'LGD e PD come variabili indipendenti.

E' un ragionamento astratto che citiamo solo per completezza.

60

Probabilità di default

I modelli più utilizzati per la stima appartengono a 3 famiglie:

- modelli di tipo statistico quantitativo (scoring) (1)

- Modelli di tipo quali-quantitativi (rating interno) (2)

- Modelli basati su dati di mercato applicabili solo a clienti quotati (3)

I modelli di scoring (1)

Consentono una valutazione automatica che genera un giudizio numerico, utilizzando

come dati di input tipicamente dati di bilancio di imprese che stanno richiedendo credito

(o dati patrimoniali di individui).

Per indicare quali sono gli indicatori di bilancio sensibili, cioè quei valori che possano

discriminare le imprese sane da quelle insane, le banche si rifanno all'esperienza

passata; osservano su un campione di clienti quanti sono risultati sani e quanti

insolventi. Andranno cosi a capire quali sono le variabili che permettono di separare

meglio all'interno di questo gruppo le imprese sane da quelle insolventi.

Per mettere in piedi un sistema di scoring, bisognerà avere un campione storico di

imprese sane e non, bisognerà capire le variabili chiave, gli indicatori di bilancio ed infine

discriminare le imprese.

Una funzione discriminante può essere così rappresentata:

61

Gli indici di bilancio prescelti in questo modello sono: Indicatore di redditività, di liquidità,

del costo del debito e di indebitamento. Bisognerà dunque stimare un algoritmo che

possa scegliere tra imprese sane e non. Affinché lo faccia correttamente occorre che ci

sia:

- distanza significativa tra gli score delle imprese sane e non --> MASSIMA DISTANZA

- Minima varianza --> minimizzare la varianza degli score all'interno di ogni gruppo.

Si dimostra che le condizioni di minima variabilità e massima distanza vengono

soddisfatte se i coefficiente da attribuire agli indicatori si calcolano come prodotto tra: (il

valore medio di ogni singolo indicatore delle imprese sane - valore medio di ogni singolo

indicatore imprese non sane) il tutto moltiplicato per la matrice inversa delle varianze-

covarianze

A questo punto dovremmo assegnare un vettore che è dato da tutti i coefficienti delle x,

bisognerà poi capire il livello di score (cut off) per decidere se affidare o no le prossime

richieste di prestito che giungeranno. Ci sono più modalità ma una tecnica può essere

quella di calcolare il valore medio:

1° metodo:

Esempio difficilmente applicabile all'esame:

Abbiamo un campione storico di 38 imprese di queste 24 affidabili e 14 insolventi. Gli

indicatori che permettono di capire la probabilità di default sono X = oneri finanziari su

1

fatturato e X = sconfinamento sul credito assegnato.

2

Bisogna calcolare i coefficienti da attribuire a X, li determiniamo attraverso il prodotto tra

il valore dei vettori medi per gruppi di imprese (X1 e X2 medio all'interno dei due gruppi)

e matrice inversa varianza e covarianza.

62

Seguono calcoli, gran parte fatti su excel:

63

La soglia di Cut-off produrrebbe degli errori perché molte imprese sarebbero giudicate

appartenere alla categoria opposta. Il metodo utilizzato quindi non discrimina in maniera

efficiente. Il modello delineato ha dunque degli errori.

BOLLINO ROSSO. Per misurare l'effettiva capacità discriminante del modello usiamo

l'indice chiamato: Lambda di Wilks (la quale cattura la dispersione degli score

all'interno dei due sottocampioni pesati per la dispersione di tutti i campioni. Il fatto che

un valore prossimo allo zero indichi una buona capacità discriminante deriva dalla

formulazione del numeratore, se il modello è buono la variabilità deve essere pari a 0.

A numeratore abbiamo la varianza degli score dei campioni delle imprese sane + quelle

non affidabili fratto la varianza degli score su tutto il campione. Andremo a vedere

quanto sono distanti o ravvicinati gli score. Il modello funziona bene se gli score degli

affidabili sono vicini tra loro, altrettanto se gli score della famiglia degli inaffidabili sono

molto vicini tra loro. Se a numeratore avrò un numero prossimo allo zero, lamba

assumerà anch'esso un valore vicino allo zero. Il valore che viene fuori dall'esempio è

64

0,55 quindi non performante (Più il valore di lamba è vicino a 0 più è performante, più si

allontana meno lo è).

In sede d'esame non verrà richiesta la costruzione delle matrici ma possono esserci forniti i dati andando

.

a commentare la capacità di misurazione

Fino ad ora abbiamo solo determinato un numero (score), la probabilità di insolvenza in

termini percentuali è calcolata tramite il teorema di Bayes :

(Il Cut- Off a quel livello avrebbe giudicato NON affidabili imprese che in realtà sarebbero affidabili. Tutte

imprese che hanno uno Z score Maggiore al Cut-off (se considerato in valore assoluto). Gli errori sono

anche inversi.)

Abbiamo 3 variabili:

- Probabilità di default a priori della banca (esprime la probabilità media-storica della

banca; nel nostro esempio: numero fallite/totale imprese - 14/38)

- Z score del cliente - cut off

Per continuare l'esempio:

Impresa 2. Z score = -6,29769

65

E' possibile correggere lo Score prendendo in considerazione direttamente gli errori che

quel modello genera. Due tipologie di errori che compie:

- classifica imprese insolventi nel gruppo delle imprese sane (secondo tipo)

- Classifica un certo numero di imprese sane nel gruppo delle insolventi (Primo tipo)

Gli errori conducono a dei costi, il risultato sarà una perdita da rischio di credito:

Errore del primo tipo. Costo = capitale + interessi persi

Un costo per gli errori di secondo tipo è il mancato guadagno sul prestito per aver

rifiutato un cliente.

Gli errori del primo tipo pesano molto più, una possibilità è di ricalibrare il modello.

Potremmo decidere di rifiutare il credito tutte le volte che il costo dell'errore del primo

tipo supera il costo dell'errore del secondo tipo. Ciò significa ricalcolare il cut-off

attraverso questa formula:

Alfa è il cut-off + logaritmo della probabilità di insolvenza media storica * costo generato

dall'errore di primo tipo (perdita del capitale e degli interessi) FRATTO (1- probabilità di

default) * mancato guadagno sul prestito se lo rifiutassi.

Il nuovo score è molto più selettivo 0,95 vs -3.97 finanzieremo solo imprese che si

troveranno al di sotto della nuova soglia, andando a rifiutare tutte le altre.

La scelta della funzione discriminante è molto delicata e può essere modificata in base

alle volontà della banca.

66

Questi modelli hanno due finalità:

- stima del livello di rischio (1. Assegnando ad ogni score una PD diversa)

- Semplice previsione delle insolvenze (1. prendere decisioni di affidamenti/non

affidamenti; 2. Generare segnali di early Warning sui debitori in crisi)

Esiste un modello noto che è lo Z Score di ALTMAN su un campione di imprese sane

fallite e non. Individua 5 X (variabili indipendenti esplicative):

Modelli della PD basata sui dati del mercato di capitali (2)

I modelli utilizzano dati del mercato azionario e obbligazionario. La logica è quella di

credere nell'efficienza dei mercati e pensare che quei prezzi riflettano tutte le

informazioni possibili, riflettendo anche la solvibilità delle aziende. Due approcci:

- osservazione del mercato del debito (analisi degli spread dei corporate bond rispetto

al free risk; un emittente quando si emette un bond paga uno spread, leggendo

questa informazione dovremmo essere in grado di capire quella che è la Probability of

default)

- Osservazione del mercato dell'equity, hanno come punto di partenza la teoria Merton;

si fondano sull'osservazione dei prezzi azionari e adottando il metodo di pricing delle

opzioni sempre per capire l'aspettativa di default

Iniziamo a vedere l'approccio basato sul mercato del debito.

Sappiamo che la maggiorazione di rendimento richiesta dai titoli rischiosi (rispetto ai titoli

risk-free di uguale scadenza) riflette le aspettative di mercato sulla probabilità di

insolvenza degli emittenti. Oltre al rischio di credito, sul prezzo del titolo incidono: la

67

struttura dello strumento, la liquidità. Per riuscire a calcolare le probabilità di default sui

Corporate bonds avremmo bisogno di:

- conoscere la curva dei tassi risk-free ZCB (ricavabili dalle quotazioni dei titoli di stato

o dai tassi Swap - IRS)

- Conoscere i tassi di rendimento zero-coupon dei titoli obbligazionari rischiosi

- Recovery rates

La stima del PD ad un anno, ipotizziamo che in caso di default il recovery Rate = 0 e che

l'investitore è neutrale al rischio. Sarà indifferente comprare un titolo rischioso o no-risk,

due alternative:

- investire 1 euro per un anno su un titolo non rischioso --> Montante = 1+i

Dove i è il tasso risk free

- Comprare il titolo rischioso e ottenere come montante ---> (1+r) incassandolo se e

solo se il soggetto non fallirà con probabilità (1-PD) perchè in caso di fallimento non

otterrebbe niente (1+r)*(1-PD)+(0*PD)

Implicitamente dalle quotazioni del mercato ritrovo la PD perchè tutti gli altri fattori sono

presenti sul mercato.

PD= 1 - (1+i)/(1+r)

Se invece il recovery Rate fosse positivo RR=K (stimiamo di recuperare qualcosa) i due

investimenti saranno:

- comprare il titolo risk free prende (1+i)

- Comprare titolo rischioso (1+r)*(1-PD)+ K*PD*(1+r)

Da qui otteniamo che la Probability of defaul implicita è:

PD = (r-i) / (1+r)*(1-k)

Esempio:

68

La durata dei prestiti però è difficilmente pari ad un anno. Dovremmo dunque calcolare

la PD per valori maggiori di un anno. Se invece di avere 1 anno, abbiamo un orizzonte

temporale pari a T anni l'investitore può:

- 3

comprare un titolo risk free per 3 anni (1+i)

- 3 3

Comprare un titolo corporate per 3 anni (1+r) *(1-PD)+(1+r) *PD*K

Come prima estrapoliamo la PD, visto che tutti gli altri valori sono presenti a mercato.

t t t

PD= (1+r) - (1+i) / (1+r) *(1-k). Sarà una probabilità cumulata

Nell'esempio di prima:

Dovremmo però inserire una probabilità media pari a:

Dovremmo calcolare le

probabilità marginali (annuali)

usando gli stessi dati perché

implicite nelle curve (serviranno i

tassi forward).

Dobbiamo calcolare i tassi

forward tra le diverse scadenze.

Dalle curve dei tassi spot

ricaviamo i tassi forward, un

esempio:

69


ACQUISTATO

1 volte

PAGINE

128

PESO

36.26 MB

PUBBLICATO

3 mesi fa


DETTAGLI
Corso di laurea: Corso di laurea magistrale in finanza aziendale e mercati finanziari
SSD:
Università: Torino - Unito
A.A.: 2017-2018

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher EasyUniversity di informazioni apprese con la frequenza delle lezioni di Risk Management e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Torino - Unito o del prof De Vincentiis Paola.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Risk management

Risk Management: teoria, esercizi commentati e tracce d'esame
Appunto
Matematica finanziaria
Appunto
Risk Management: teoria, esercizi commentati e tracce d'esame
Appunto
Economia degli intermediari finanziari - Accordi di Basilea 2 e di Basilea 3
Appunto