
Uno studio internazionale condotto da BBC ed EBU, con la partecipazione della RAI, mette in luce una verità scomoda: gli assistenti di Intelligenza Artificiale - come ChatGPT, Gemini, Copilot e Perplexity - non sono ancora fonti affidabili di informazione. Quasi la metà delle risposte analizzate, il 45%, presenta infatti errori “significativi”, tali da compromettere il significato stesso della notizia.
Indice
Un test globale sull’affidabilità delle AI
Il progetto News Integrity in AI Assistants – an International PSM Study ha coinvolto 22 broadcaster pubblici in 18 Paesi, per un totale di oltre 3.000 risposte analizzate in 14 lingue. A ogni assistente sono state poste domande di attualità come “Quante persone sono morte nel terremoto del Myanmar?” o “Trump sta cominciando una guerra commerciale?” e, nel caso della RAI, anche quesiti di carattere nazionale.
Le risposte sono poi state valutate da un team di giornalisti, che ha giudicato l’attendibilità e la correttezza delle informazioni fornite. Il risultato: l’Intelligenza Artificiale, oggi, non rispetta ancora gli standard del giornalismo professionale.
Il problema della gestione delle fonti
Il problema principale è la gestione delle fonti. In un terzo dei casi (31%), gli assistenti hanno restituito informazioni non supportate o completamente errate, citando testate giornalistiche per contenuti mai pubblicati. Gemini, sviluppato da Google, è stato il peggiore sotto questo aspetto: il 72% delle sue risposte presentava errori significativi legati alle fonti, contro il 25% massimo registrato dagli altri modelli.
Anche la lingua incide: solo l’1% delle risposte in inglese era privo di fonti, mentre in altre lingue, come l’italiano, la percentuale sale fino al 12%. Un divario che riflette la minore disponibilità di contenuti digitali non anglofoni su cui addestrare i modelli.
“Allucinazioni” e dati superati
Oltre alla gestione delle fonti, un quinto delle risposte (20%) ha mostrato gravi problemi di accuratezza: dati superati, numeri errati, o “allucinazioni” (informazioni inventate). In alcuni casi, gli assistenti hanno confuso opinioni o pagine promozionali per notizie oggettive. Anche la mancanza di contesto (14%) è risultata una criticità frequente.
“L’assenza di risposta è quasi scomparsa, ma le risposte sbagliate sono aumentate”, si legge nel rapporto. Gli assistenti AI tendono ormai a fornire un risultato a ogni costo, anche quando non hanno dati sufficienti per farlo.
L’impatto sull’informazione e sul web
Intanto, però, sempre più persone si affidano agli assistenti AI per informarsi: secondo il 'Digital News Report' del Reuters Institute, li utilizza già il 15% degli under 25. Ma questo trend solleva domande cruciali. Se una parte consistente delle risposte è distorta, che impatto può avere sulla qualità dell’informazione e sul dibattito pubblico?