Anteprima
Vedrai una selezione di 5 pagine su 16
Verso una giustizia impersonale attraverso l'uso degli algortimi Pag. 1 Verso una giustizia impersonale attraverso l'uso degli algortimi Pag. 2
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Verso una giustizia impersonale attraverso l'uso degli algortimi Pag. 6
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Verso una giustizia impersonale attraverso l'uso degli algortimi Pag. 11
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Verso una giustizia impersonale attraverso l'uso degli algortimi Pag. 16
1 su 16
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

COMPASS E QUESTIONE DI LEGITTIMITÀ

La matematica entra nel processo sotto forma di calcolo della probabilità, attraverso complessi teoremi, usati soprattutto negli USA. In qualsiasi ambito, quando si parla di probabilità ci si riferisce a un calcolo sicuro; nel campo giuridico, invece, non è così perché c'è sempre un ventaglio di ipotesi in cui il calcolo può essere errato. Si pensi, ad esempio, al Caso Blue Bus: nella città X, l'85% degli autobus blu sono gestiti dalla società A e il restante 15% è gestito dalla società B. Nel caso in cui avvenga un incidente creato da un autobus blu, automaticamente, grazie al calcolo delle probabilità, si attribuirà la responsabilità alla società A. Ciò, però, è sbagliato, perché il dato dell'85% non si riferisce al numero complessivo di autobus blu che circolano in quella città, ma al numero di

autobus blu posseduti dalla società A, per cui non sarebbe possibile accusare la società A di essere responsabile di ogni incidente causato da un qualsiasi autobus blu.

È corretto affermare, invece, che tra prove generalizzate (come, in questo caso, gli autobus blu) e prove individuali (bisogna analizzare il caso concreto) non c'è una differenza di categoria, ma solo di possibilità: il massimo che si può dire è che le probabilità matematiche sono a favore dell'affermazione che l'autobus coinvolto nell'incidente appartenga alla società A, ma questo non risulta sufficiente, essendo sempre un'ipotesi probabilistica. Da ciò è intuibile desumere che il calcolo delle probabilità non si inserisce in una dinamica, cui poter attingere dei dati che conducono a una verità, ma indiscutibilmente essi dati contengono delle proiezioni oggettivamente non quantificabili in termini di

verità assoluta, e ciò è la rappresentazione di un qualcosa che si discosta da quella che è la realtà fenomenica dei fatti. In parole povere coloro i quali, ossia le società che predispongo tali logaritmi, pur attingendo le loro conclusioni su potenziali e discutibili segreti aziendali, credo che la sintesi e la successiva tesi è sinonimo di conclusione della verità della quale attingono le loro analisi, quanto meno discutibili e per tale motivazione ci impone una rilettura o un riesame dei risultati, cui le stesse società giungono al fine di suggerirci il ragionamento su cui convogliare la decisione finale del giudice. Le perplessità emerse, indubbiamente non devono essere motivo per censurare o estraniare dal campo della giustizia il ricorrere all'intelligenza artificiale. L'utilizzo di tali tecnologie, finalizzato a razionalizzare il processo decisionale, nella speranza che i sistemi informatici siano in gradodi utilizzare in modo più opportuno ed efficiente tutte le informazioni a disposizione dei singoli casi ed abbiano, altresì, la capacità di ponderare opportunamente le informazioni sugli esiti precedenti. Tale approccio dovrebbe consentire quindi una capacità decisionale meno discrezionale e quindi più giusta ed equilibrata, a supporto del giudice. Certamente ed indiscutibilmente, il ricorrere a soluzioni tecnologiche è stata causa di forte perplessità e di affidabilità sull'uso degli algoritmi. Un caso che ha generato diversi interrogativi, è stato quello della giustizia americana, la quale dopo aver arrestato un uomo per ricettazione e resistenza a pubblico ufficiale, gli era stata affibbiata una pena molto severa, poiché il giudice si era avvalso dell'ausilio di uno strumento chiamato Compass (Correctional Offender Management Profiling for Alternative Sanctions). Un software commerciale, che era in grado di.

calcolarea livello probabilistico la recidività del soggetto resosi responsabile della condotta antigiuridica. Unalgoritmo che valutava, dunque, il rischio di recidiva. Il caso in questione era posto d’innanzi alla CorteSuprema del Wisconsin ed Eric Loomis. Compass funzionava mediante la compilazione di 137 domanderivolte all’imputato, che venivano immagazzinate nel sistema, interpretando tali dati come base di calcoloper la recidività. Il software proprietario, aveva previsto un ranking di recidività molto elevato, tant’è chei legali dell’imputato, hanno impugnato la sentenza opponendosi a quel tipo di trattamento proprio inconsiderazione della mancata trasparenza dei meccanismi di assegnazione del punteggio sulla recidività edel fatto che tale valore fosse assegnato in base a tipologie di persone, piuttosto che per singoli soggetti.Il tema, che veniva presentato di fronte alla Corte Suprema del Wisconsin si estrinsecava sul

fatto che, tale metodologia costituiva una violazione del "Giusto Processo" in considerazione di 3 motivazioni: 1) Il diritto ad essere condannato ad una determinata pena sulla base di informazioni accurate, delle quali non si poteva disporre in quanto coperte da diritti di proprietà industriale. 2) Il diritto di essere condannato ad una pena individualizzata. Si riteneva che la sentenza fosse spersonalizzata, poiché il punteggio si basa su un'analisi di un gruppo omogeneo di individui senza aver attentamente analizzato in modo concreto la personalità del reo. 3) Poteva esserci un "bias" di genere sul fatto che il soggetto fosse un maschio e che la propria condotta fosse ricollegabile all'azione di precedenti imputati. Da un'analisi è emerso che la probabilità di essere considerati "recidivi" dal software è molto maggiore, quasi il doppio, per persone di colore. La Corte, innanzi a questa.impugnazione non ha messo in discussione la legittimità dell'utilizzo del software però non fornendo risposte esaustive sulle questione alla stessa poste. E' vero che, l'algoritmo non è conosciuto, ed è uno strumento coperto da segreto industriale, ma è anche vero che il questionario era sottoposto volontariamente all'imputato. Per quanto concerne invece il diritto ad essere processato sulla base di dati accurati, la difesa aveva prodotto una serie di studi che contestavano il grado di affidabilità dello strumento, sostenendo che non vi erano prove certe della veridicità delle informazioni ottenute. Tuttavia, i giudici supremi hanno citato i risultati di alcuni test effettuati da altri stati americani, i quali avevano concluso che, seppure non perfetto, COMPAS rappresentava un mezzo di calcolo affidabile. Con riguardo al rischio che COMPAS attribuisca importanza sproporzionata ad alcuni fattori, come ad esempio ilbackground familiare o il livello di educazione dei responsabili di crimini minori, oppure l'appartenenza ad una certo gruppo etnico, la Corte ha ribadito che per garantire l'accuratezza della valutazione, COMPAS debba essere costantemente monitorato e aggiornato sulla base dei cambiamenti sociali, nonché usato con accortezza e seguendo specifiche cautele. Secondo Loomis l'uso delle informazioni di genere compiuto dalla Corte sarebbe incostituzionale, poiché essendo il gruppo degli individui maschi quello statisticamente ritenuto più incline alla recidiva, i giudici avrebbero basato la sentenza su un'illegittima discriminazione di genere. La Corte ha rilevato che la difesa non aveva dimostrato che il genere fosse l'unico parametro usato per la determinazione della pena, e che al contrario la decisione di primo grado aveva fatto riferimento a numerosi altri fattori. La Corte a seguito di tale impugnazione ha concluso che COMPAS mantiene lasua validità ed efficacia nell'ambito delle decisioni affidate ai giudici, non violando in alcun modo il diritto all'equo processo. La corte, ha inoltre osservato che, sebbene si fosse fatto riferimento ai risultati COMPAS nel determinare la pena, i giudici avevano attribuito al fattore di rischio un peso minimo, affermando addirittura che la sentenza non sarebbe stata diversa in assenza dei dati forniti dallo strumento. Nel caso di specie, l'utilizzo dello strumento di calcolo del rischio non sembra sollevare particolari preoccupazioni quanto alla tutela dei diritti di giusto processo dell'imputato. Come scrupolosamente chiarito dall'opinione concorrente del giudice Drake Roggensack. I giudici sono legittimati a considerare ("consider") i dati forniti dal software nella determinazione della sentenza, insieme però ad una molteplicità di altri fattori. Illegittimo sarebbe invece basare ("rely") la sentenza su tali risultati.

Utilizzandoli quindi come fattori determinanti della decisione. In una prospettiva futura, è auspicabile che l'impiego di tali strumenti avvenga sempre in maniera prudente e rispettosa di tutte le limitazioni e cautele sopramenzionate, in modo da scongiurare i risultati aberranti che possono derivare da un atteggiamento troppo fideistico nei confronti della cd. Intelligenza artificiale.

IA VS DIRITTO

Recentemente, a Londra si è tenuto un evento chiamato "Interpretation of the law trought mathematicals models" organizzato dal docente universitario, nonché avvocato, Luigi Viola, specializzato nell'IA. Uno dei partecipanti al convegno, in occasione di un suo intervento ha evidenziato allo stesso docente se la giustizia predittiva potesse, in futuro, sostituire il giudice; La risposta, in tale circostanza, è stata negativa, poiché la sostituzione del giudicante, non rientra nelle finalità del ricorso all'intelligenza artificiale.

E' utile, a mio parere, che la previsione di un potenziale risultato abbia come punto di riferimento la statistica dei casi e i calcoli matematici. Vi è da precisare che una giornalista, e precisamente Stefania Grosso, ha posto diverse domande a Luigi Viola, divenuto famoso nel settore IA per aver creato un algoritmo per interpretare le disposizioni di legge, fra le quali se esiste una differenza fra il nostro diritto, ossia il civil law, e il common law. Egli sostiene che fuori dall'Italia c'è un approccio al diritto molto pratico, ossia una logica volta a risolvere ogni problema giuridico, più che fare mera teoria. Da questo punto di vista, l'algoritmo, e più in generale un'elaborazione matematica del diritto, trova terreno fertile sul quale fiorire. In occasione della conferenza, si sono susseguiti interventi di altissimo profilo e qualcuno si è soffermato sulla possibilità che la giustizia predittiva possa esistere solo in Italia.

r parte dei paesi che adottano il sistema di civil law tendono ad avere un approccio più codificato e basato su leggi scritte, mentre i paesi di common law si basano maggiormente sulla giurisprudenza e sul precedente. Tuttavia, questa valutazione non dovrebbe essere motivo di sorriso, ma piuttosto di riflessione. Non si tratta di un problema legato al sistema giuridico in sé, ma piuttosto di un problema di approccio al diritto.
Dettagli
Publisher
A.A. 2020-2021
16 pagine
SSD Scienze storiche, filosofiche, pedagogiche e psicologiche M-DEA/01 Discipline demoetnoantropologiche

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher paoloangry96 di informazioni apprese con la frequenza delle lezioni di Antropologia giuridica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Brescia o del prof Cassi Alberto.