vuoi
o PayPal
tutte le volte che vuoi
Il modello presenta delle carenze
Il modello presenta delle carenze costituite dalle numerose ipotesi semplificatrici, da limiti rappresentati dall'esigenza di disporre di numerose informazioni e dalla necessità di realizzare le tabelle di migrazione in numero pari a quello delle variabili considerate.
CREDITI RISK+
L'impiego del modello "metrics" da parte del Credit Suisse ha consentito la verifica della parziale attendibilità dei dati storici e le differenze tra imprese allocate nella stessa classe. Credit Suisse ha cercato di ridurre queste carenze operando sulle percentuali di default attraverso la loro correlazione al settore di appartenenza delle imprese fallite. Il modello "credit risk+" giunge alla valutazione del portafoglio crediti tramite una stima indiretta delle potenzialità di crescita o di decremento del merito creditizio delle imprese clienti. Si perviene così alla costruzione di una distribuzione di Poisson della probabilità di.
insolvenza, basata sulla conoscenza dei tassi di default ed ipotizzando bassi tassi di insolvenza e di indipendenza del rischio di fallimento di un'impresa rispetto al resto della clientela.
CREDIT PORTFOLIO VIEW
Questi modelli costituiscono il presupposto del Credit portfolio view che valuta la probabilità di migrazione considerando alcune variabili macroeconomiche (livello di crescita del PIL, tasso di disoccupazione, tassi di interesse di lungo periodo). Il modello utilizza la matrice di migrazione di credit metrics, rielaborandola in base alle variabili macroeconomiche tramite regressione non lineare per ogni settore e paese.
PORTFOLIO MANAGER
Il modello "portfolio manager" si basa sulla valutazione del rapporto tra attività e passività analizzando le diverse scadenze debitorie. Considera, quindi, il punto di insolvenza (DP) dato dalla somma tra le passività correnti e la metà delle passività a lungo termine.
2. Modelli con approccio
L'esigenza di conoscere, da parte degli operatori finanziari, la probabilità di default delle imprese ha indotto l'approfondimento dei principi su cui poggiano i modelli di valutazione del rischio di credito. Questa modalità di analisi prevedono l'assegnazione di un punteggio (score) sulla base di una scala metrica che muove da una soglia che discrimina l'insolvenza dalla sopravvivenza. La costruzione dei modelli statistici prevede una preliminare attività di screening che conduce all'individuazione delle variabili critiche tramite la verifica delle "ricorrenze statistiche". Grazie a questo modo di operare, l'approccio appare poco viziatodalla soggettività del valutatore, a condizione che si stabiliscano le variabili e la numerosità del campione. Si può così giungere alla determinazione di un data-base in cui sono definiti i pesi tramite il quale si
potrà effettuare un monitoraggio periodico rapido e poco oneroso. Anche questi metodi presentano delle carenze costituite dalla possibile presenza di errori "invisibili", dalla necessità di aggiornamento e dal rischio di invalidità dei dati di input. Un'ulteriore esigenza dei metodi è rappresentata dall'ampiezza del campione. Affinché i risultati siano attendibili, è necessario avere una "base dati" particolarmente ampia grazie alla quale poter testare il modello su più casi. La "base dati" di solito è costituita dagli indici di bilancio. La genesi dei metodi statistici viene riconosciuta nel lavoro del 1968 di Altman. Nel 1932 Patrick rielaborò alcuni indici per due gruppi di imprese riuscendo a confermare l'impostazione teorica che riguarda gli indici di bilancio. Pochi anni dopo, un ulteriore lavoro analizzò i bilanci di 183 società fallite e dall'analisiEmerse la regolarità negativa degli indicatori, che si aggravava in concomitanza dell'cessazione dell'impresa. Questo filone di studi si arricchì del contributo di Merwin che analizzò le PMI statunitensi individuando un range di oscillazione degli indici rappresentato dal risultato migliore e peggiore delle imprese sane considerandone la media come valore di riferimento e di differenziazione dalle altre. Le imprese fallite si allontanavano da questo valore e non rientravano nell'intervallo tra i due estremi. Un'innovazione in questi studi fu introdotta da Tamari che considerò 6 indici con pari livello di ponderazione. Un altro contributo impiegò l'approccio discriminante di tipo dicotomico, considerando due soli indici per selezionare le realtà con l'analisi discriminante univariata. Su questi presupposti si inserisce il lavoro di Altman che selezionò gli indici da ponderare impiegando l'analisi discriminante.
Quest’analisi, volta a classificare un determinato elemento E in un determinato ambito, necessita che E appartenga ad uno dei due gruppi e che vi sia una preliminare conoscenza degli elementi che li connotano. Si può procedere ad un confronto tra l’impresa focalizzata ed i risultati dell’indagine campionaria svolta sui due gruppi, al fine di verificare la vicinanza di quest’impresa con uno o con l’altro gruppo.
Proseguendo negli studi, Altman, insieme ad altri autori, ha perfezionato il sistema attraverso la selezione degli indici più significativi e la ponderazione anche in funzione delle peculiarità degli ambiti osservati che hanno superato i confini degli USA.
L’approccio individuato da Altman è stato accolto con ritardo in Italia per via della differente composizione dell’assetto imprenditoriale che aveva determinato la tradizione di basare le proprie stime e proiezioni su dati soggettivi, integrandoli con elementi
oggettivi. Anche in Italia si è generato un filone di studi che muove dallo Z score adattandolo a diverse situazioni e contesti. Tra i numerosi contributi di matrice statistica, importate risulta quello di Leticia Topa la quale, inserendosi nel filone di Altman ed utilizzando anche tecniche di probabilità soggettiva, ha cercato di considerare nell’analisi variabili di natura qualitativa. Il lavoro parte dalla verifica che il processo di credito è funzione di fattori determinanti e di fattori complementari che consentono l’attribuzione numerica al parametro di scoring.
MODELLO LOGISTICO
Nell’ambito dell’analisi discriminante, rientra il modello logistico che utilizza come tecnica di screening la regressione, cercando la funzione che minimizza la distanza tra il giudizio sull’impresa e la curva di rappresentazione del fenomeno “imprese fallite”. La peculiarità del modello è costituita
dall'inserimento, nell'ambito della selezione delle imprese, di una variabile qualitativa dipendente e di tante variabili indipendenti per quanti sono gli indicatori utili a verificare le potenzialità di sopravvivenza dell'impresa. In presenza di una funzione di densità di probabilità di tipo logistico si ha un modello "Logit", mentre si ha un modello "Probit" quando la funzione di densità di probabilità è di tipo normale. L'analisi discriminante si propone di stabilire l'appartenenza di un'impresa ad una delle due categorie (sane o fallite) tramite l'individuazione e la ponderazione di alcune prestabilite variabili. Il modello logistico non discrimina le imprese in due categorie, ma cerca di individuare la distanza dall'insolvenza sulla base del presupposto dell'esistenza di una relazione causa-effetto tra risultati contabili e probabilità di default. Quando nonÈ possibile prevedere la forma delle distribuzioni delle variabili o delle funzioni di densità della probabilità, può essere utile l'applicazione dei modelli distribution-free tra i quali rivestono importanza il metodo dell'istogramma ed il metodo di Kernel.
33. Modelli di intelligenza artificiale
L'intelligenza artificiale può definirsi come una parte dell'informatica, che riguarda vari ambiti disciplinari, volti alla definizione di programmi impiegabili per la risoluzione di problematiche che richiederebbero capacità cognitive e di calcolo rilevanti e laboriose.
Il progresso dell'informatica e l'approfondimento scientifico e filosofico hanno contribuito all'evoluzione di questo approccio che oggi costituisce un importante strumento anche in ambito manageriale. Studi e ricerche empiriche hanno dimostrato la validità delle reti neurali e della tecnica degli alberi decisionali, soprattutto.
ovvero la capacità dei neuroni di continuare a funzionare anche in presenza di danni o lesioni- capacità di apprendimento, ovvero la capacità di modificare le connessioni tra i neuroni in base all'esperienza acquisita- parallelismo, ovvero la capacità di elaborare più informazioni contemporaneamente- adattabilità, ovvero la capacità di adattarsi a nuove situazioni e contesti.Le reti neurali artificiali, invece, sono modelli matematici che cercano di replicare il funzionamento delle reti neurali biologiche. Sono composte da nodi artificiali, chiamati neuroni artificiali, che sono collegati tra loro attraverso connessioni pesate. Queste connessioni rappresentano la forza dell'interazione tra i neuroni e vengono modificate durante il processo di apprendimento.L'utilizzo delle reti neurali artificiali nell'ambito della previsione della crisi d'impresa permette di analizzare grandi quantità di dati e individuare pattern e relazioni non evidenti ad occhio nudo. Le reti neurali possono essere addestrate utilizzando dati storici di aziende che hanno vissuto una crisi d'impresa, in modo da individuare i segnali di allarme che possono precedere una crisi. In questo modo, è possibile prevedere con maggiore precisione la possibilità che un'azienda entri in crisi e adottare misure preventive per evitarla o mitigarne gli effetti.anche in caso di rottura di una componente la rete non perde le informazioni in suo possesso- auto-apprendimento, tramite l'esperienza la rete diventa efficiente e può confrontare le diverse informazioni percepite. La rete neurale possiede la capacità di recepire le informazioni esterne, comprenderne le regole e adattarsi all'ambiente auto-organizzandosi. I processi di apprendimento possono distinguersi in: - processi non supervisionati, per cui la replica della realtà deriva dall'autonoma elaborazione delle informazioni esterne - processi supervisionati, la rete riceve input ed output corrispondenti imparando il comportamento da assumere - processi per rinforzo, ovvero segnali di supporto offerti dall'esterno per consentire al sistema di adottare la scelta migliore. La numerosità dei neuroni rendono complesso il funzionamento delle reti. ALGORITMI GENETICI Un'ulteriore applicazione dell'intelligenza artificiale è costituita.dagli algoritmi genetici. Questo processo evolutivo opera sulle popolazioni con un processo ciclico, privo di memoria e basato sulle esigenze ambientali. La selezione genetica presuppone che la sopravvivenza non dipenda dalla forza degli individui, ma dalla