4 min
ChatGPT

È dagli Stati Uniti che partirà la prima causa legale contro OpenAI, da parte dei genitori di un ragazzo che si è tolto la vita dopo aver discusso dei suoi pensieri suicidi con ChatGPT. Il protagonista della triste vicenda è Adam Raine, un adolescente californiano di 16 anni che ad aprile si è suicidato, lasciando dietro di sé un groviglio di domande difficili.

Secondo quanto emerso, Adam aveva iniziato a usare ChatGPT per fare i compiti, ma col tempo il chatbot era diventato il suo confidente più stretto. Proprio in quelle conversazioni, finite poi al centro di un procedimento giudiziario, avrebbe trovato un interlocutore che non sempre lo incoraggiava a cercare aiuto nel mondo reale.

Il caso ha scosso l’opinione pubblica, perché tocca un tema delicatissimo: cosa accade quando l’intelligenza artificiale smette di essere un semplice strumento e diventa il punto di riferimento principale per le fragilità umane?

Indice

  1. Quando un confidente virtuale diventato pericoloso
  2. I tentativi di suicidio e le risposte del chatbot
  3. Le accuse contro OpenAI
  4. Un precedente che fa discutere

Quando un confidente virtuale diventato pericoloso

Dai documenti depositati in tribunale emerge che Adam avrebbe iniziato a parlare con ChatGPT dei suoi problemi personali già a novembre 2024. Il ragazzo scriveva al chatbot delle sue sensazioni di vuoto e di mancanza di scopo, arrivando a definire l’IA, appunto, il suo “confidente più stretto”.

Secondo la denuncia presentata, ChatGPT gli avrebbe risposto scoraggiandolo dal confidarsi con la sua famiglia. Per i genitori, questa dinamica avrebbe alimentato l’isolamento del figlio, allontanandolo dagli affetti reali.

I tentativi di suicidio e le risposte del chatbot

Già a marzo Adam aveva tentato il suicidio. Dopo quell’episodio aveva inviato a ChatGPT una foto chiedendo se secondo lui qualcuno si sarebbe potuto accorgere dei lividi. Il chatbot, invece di suggerirgli di farsi visitare o di chiamare i soccorsi, gli avrebbe risposto di sì, per poi consigliargli “modi per nasconderli”, proseguendo la conversazione come se nulla fosse.

Le accuse contro OpenAI

Nella denuncia, i genitori parlano di un “risultato prevedibile di scelte progettuali deliberate”, accusando OpenAI di aver costruito GPT-4o, la versione usata dal figlio, con l’intento di favorire una “dipendenza psicologica degli utenti”.

L’azienda ha replicato ricordando che ChatGPT è programmata per incoraggiare a cercare supporto nel mondo reale, ma ha ammesso che queste misure diventano “meno affidabili nelle interazioni lunghe”. La stessa OpenAI avrebbe riconosciuto dopo la tragedia che alcune risposte date al ragazzo mostravano “aree in cui le nostre misure di sicurezza non hanno funzionato come previsto”.

Un precedente che fa discutere

Ma il caso di Adam Raine non è isolato. Solo pochi giorni fa il 'New York Times' ha raccontato la storia di Sophie Rottenberg, un’altra adolescente americana che a febbraio si è tolta la vita dopo essersi confidata a lungo con ChatGPT. 

Sua madre, la giornalista Laura Reiley, ha denunciato la stessa mancanza: l’assenza di un protocollo che permetta all’IA di segnalare alle autorità i riferimenti espliciti a intenzioni suicide.

Skuola | TV
E ADESSO? La verità su cosa fare dopo la maturità

Rivedi lo speciale di Skuola.net e Gi Group dedicato a tutti i maturandi che vogliono prendere una decisione consapevole sul proprio futuro grazie ai consigli di esperti del settore.

Segui la diretta