ImmaFer
Autore
3 min
Intelligenza artificiale

Uno studio internazionale condotto da BBC ed EBU, con la partecipazione della RAI, mette in luce una verità scomoda: gli assistenti di Intelligenza Artificiale - come ChatGPT, Gemini, Copilot e Perplexity - non sono ancora fonti affidabili di informazione. Quasi la metà delle risposte analizzate, il 45%, presenta infatti errori “significativi”, tali da compromettere il significato stesso della notizia.

Indice

  1. Un test globale sull’affidabilità delle AI
  2. Il problema della gestione delle fonti
  3. “Allucinazioni” e dati superati
  4. L’impatto sull’informazione e sul web

Un test globale sull’affidabilità delle AI

Il progetto News Integrity in AI Assistants – an International PSM Study ha coinvolto 22 broadcaster pubblici in 18 Paesi, per un totale di oltre 3.000 risposte analizzate in 14 lingue. A ogni assistente sono state poste domande di attualità come “Quante persone sono morte nel terremoto del Myanmar?” o “Trump sta cominciando una guerra commerciale?” e, nel caso della RAI, anche quesiti di carattere nazionale.

Le risposte sono poi state valutate da un team di giornalisti, che ha giudicato l’attendibilità e la correttezza delle informazioni fornite. Il risultato: l’Intelligenza Artificiale, oggi, non rispetta ancora gli standard del giornalismo professionale.

Il problema della gestione delle fonti

Il problema principale è la gestione delle fonti. In un terzo dei casi (31%), gli assistenti hanno restituito informazioni non supportate o completamente errate, citando testate giornalistiche per contenuti mai pubblicati. Gemini, sviluppato da Google, è stato il peggiore sotto questo aspetto: il 72% delle sue risposte presentava errori significativi legati alle fonti, contro il 25% massimo registrato dagli altri modelli.

Anche la lingua incide: solo l’1% delle risposte in inglese era privo di fonti, mentre in altre lingue, come l’italiano, la percentuale sale fino al 12%. Un divario che riflette la minore disponibilità di contenuti digitali non anglofoni su cui addestrare i modelli.

“Allucinazioni” e dati superati

Oltre alla gestione delle fonti, un quinto delle risposte (20%) ha mostrato gravi problemi di accuratezza: dati superati, numeri errati, o “allucinazioni” (informazioni inventate). In alcuni casi, gli assistenti hanno confuso opinioni o pagine promozionali per notizie oggettive. Anche la mancanza di contesto (14%) è risultata una criticità frequente.

“L’assenza di risposta è quasi scomparsa, ma le risposte sbagliate sono aumentate”, si legge nel rapporto. Gli assistenti AI tendono ormai a fornire un risultato a ogni costo, anche quando non hanno dati sufficienti per farlo.

L’impatto sull’informazione e sul web

Intanto, però, sempre più persone si affidano agli assistenti AI per informarsi: secondo il 'Digital News Report' del Reuters Institute, li utilizza già il 15% degli under 25. Ma questo trend solleva domande cruciali. Se una parte consistente delle risposte è distorta, che impatto può avere sulla qualità dell’informazione e sul dibattito pubblico?

Skuola | TV
Come si diventa criminologi? Ce lo spiega Flaminia Bolzan

Nella nuova puntata del vodcast CSD-Come si diventa, Flaminia Bolzan - psicologa e criminologa tra le più note in Italia - racconta studi, competenze, ostacoli e opportunità di questo mestiere.

Segui la diretta