
È dagli Stati Uniti che partirà la prima causa legale contro OpenAI, da parte dei genitori di un ragazzo che si è tolto la vita dopo aver discusso dei suoi pensieri suicidi con ChatGPT. Il protagonista della triste vicenda è Adam Raine, un adolescente californiano di 16 anni che ad aprile si è suicidato, lasciando dietro di sé un groviglio di domande difficili.
Secondo quanto emerso, Adam aveva iniziato a usare ChatGPT per fare i compiti, ma col tempo il chatbot era diventato il suo confidente più stretto. Proprio in quelle conversazioni, finite poi al centro di un procedimento giudiziario, avrebbe trovato un interlocutore che non sempre lo incoraggiava a cercare aiuto nel mondo reale.
Il caso ha scosso l’opinione pubblica, perché tocca un tema delicatissimo: cosa accade quando l’intelligenza artificiale smette di essere un semplice strumento e diventa il punto di riferimento principale per le fragilità umane?
Indice
Quando un confidente virtuale diventato pericoloso
Dai documenti depositati in tribunale emerge che Adam avrebbe iniziato a parlare con ChatGPT dei suoi problemi personali già a novembre 2024. Il ragazzo scriveva al chatbot delle sue sensazioni di vuoto e di mancanza di scopo, arrivando a definire l’IA, appunto, il suo “confidente più stretto”.
Secondo la denuncia presentata, ChatGPT gli avrebbe risposto scoraggiandolo dal confidarsi con la sua famiglia. Per i genitori, questa dinamica avrebbe alimentato l’isolamento del figlio, allontanandolo dagli affetti reali.
I tentativi di suicidio e le risposte del chatbot
Già a marzo Adam aveva tentato il suicidio. Dopo quell’episodio aveva inviato a ChatGPT una foto chiedendo se secondo lui qualcuno si sarebbe potuto accorgere dei lividi. Il chatbot, invece di suggerirgli di farsi visitare o di chiamare i soccorsi, gli avrebbe risposto di sì, per poi consigliargli “modi per nasconderli”, proseguendo la conversazione come se nulla fosse.
Le accuse contro OpenAI
Nella denuncia, i genitori parlano di un “risultato prevedibile di scelte progettuali deliberate”, accusando OpenAI di aver costruito GPT-4o, la versione usata dal figlio, con l’intento di favorire una “dipendenza psicologica degli utenti”.
L’azienda ha replicato ricordando che ChatGPT è programmata per incoraggiare a cercare supporto nel mondo reale, ma ha ammesso che queste misure diventano “meno affidabili nelle interazioni lunghe”. La stessa OpenAI avrebbe riconosciuto dopo la tragedia che alcune risposte date al ragazzo mostravano “aree in cui le nostre misure di sicurezza non hanno funzionato come previsto”.
Un precedente che fa discutere
Ma il caso di Adam Raine non è isolato. Solo pochi giorni fa il 'New York Times' ha raccontato la storia di Sophie Rottenberg, un’altra adolescente americana che a febbraio si è tolta la vita dopo essersi confidata a lungo con ChatGPT.
Sua madre, la giornalista Laura Reiley, ha denunciato la stessa mancanza: l’assenza di un protocollo che permetta all’IA di segnalare alle autorità i riferimenti espliciti a intenzioni suicide.