
ChatGPT riesce a scrivere poesie, racconti, e perfino a comporre musica, ma come se la cava con le leggi? Non così bene, a quanto pare.
Mentre l'intelligenza artificiale sta diventando sempre più presente nella nostra vita quotidiana, emergono anche i suoi limiti in alcuni settori, come quello giuridico.
Un esperimento recente ha messo alla prova ChatGPT su un campo complicato e pieno di insidie: il diritto penale.
L’esito? Non proprio brillante, visto che il modello AI più famoso del momento è stato "bocciato" su argomenti di procedura penale.Ma forse (/probabilmente) è solo questione di tempo.
Indice
L'esperimento: ChatGPT sotto esame
Tutto è iniziato, come riporta ‘Agi’, con un esperimento ideato da Diego Amidani, giovane avvocato e dottorando di ricerca in “Diritti, Persona, Innovazione e Mercato” presso l’Università di Brescia.
Amidani, in particolare, ha voluto testare le reali capacità di ChatGPT nell'affrontare argomenti di diritto penale. L’esperimento si è svolto in due fasi, una in Italia e una negli Stati Uniti, nei mesi di novembre 2023 e maggio 2024.
“La verifica”, spiega l’avvocato, “è stata divisa in due parti. Nella prima sono state sottoposte alla chatbot domande sull’istituto dell’appello penale, proprio come se si trattasse di uno studente di giurisprudenza chiamato a sostenere l’esame di Diritto processuale penale. Nella seconda sono state rivolte all’algoritmo richieste di aiuto per la stesura di un atto giudiziario e nel reperimento di fonti giurisprudenziali, come se fosse un ‘A.I.utante’ di uno studio legale”.
L'obiettivo, viene da sé, era capire se la tecnologia potesse essere davvero un aiuto concreto per chi studia o lavora nel campo giuridico.
ChatGPT: imprecisioni e lacune
I risultati del test, come raccontato sulle riviste ‘Diritto penale contemporaneo’ e ‘Sistema penale’, non sono stati entusiasmanti.
ChatGPT ha mostrato diversi problemi circa le sue conoscenze in ambito giuridico. Alcuni degli errori più comuni riguardavano l’uso improprio di terminologia tecnica e la confusione su concetti chiave del Codice di procedura penale.
Ad esempio, ChatGPT ha utilizzato il termine “verdetto” invece di sentenza, e ha parlato di “argomentazioni legali” per riferirsi al contenuto di un atto di appello. Oppure ha chiamato l’appellante “parte scontenta”, mostrando una mancanza di comprensione delle terminologie corrette.
Questi errori, secondo Amidani, sarebbero da attribuire a un addestramento poco accurato del modello, che probabilmente ha fatto riferimento a fonti non adeguate o non abbastanza aggiornate.
La “prudenza” di ChatGPT
Nonostante gli errori, ChatGPT ha comunque dimostrato una certa prudenza.
In alcune delle sue risposte, il modello ha invitato a consultare un avvocato specializzato per maggiori dettagli o per avere informazioni più accurate. Un atteggiamento visto come una sorta di "protezione automatica" o di “scarico di responsabilità, che previene possibili danni derivanti da risposte errate.
ChatGPT non è (ancora) pronto per la toga
L’esperimento ha dunque messo in luce i limiti attuali dell’intelligenza artificiale in un campo delicato come quello del diritto penale.
In altre parole, ChatGPT eccelle nel generare testi creativi e nel risolvere problemi semplici, ma quando si tratta di terminologia tecnica e di norme giuridiche, la strada è ancora lunga.
O forse no: in fondo, l’intelligenza artificiale ha fatto il suo debutto in società da poco tempo, quindi è ancora decisamente presto per saltare a conclusioni in merito alle sue abilità. Probabilmente non bisognerà aspettare così a lungo per avere delle consistenti migliorie nelle performance.
La conclusione però è una: forse ChatGPT non diventerà presto un avvocato, ma può essere pur una mano amica, sempre a patto che ci sia una guida esperta al suo fianco.