
Oltre un milione di utenti ogni settimana scrive su ChatGPT messaggi che contengono riferimenti a intenzioni o pensieri suicidi. E non è tutto: secondo i dati diffusi da OpenAI - l'azienda che ha sviluppato il chatbot - circa 560mila persone mostrano segnali riconducibili a emergenze di salute mentale, come episodi di mania o psicosi.
Sono numeri che fanno riflettere, soprattutto perché riguardano anche tanti giovani adolescenti.
Per questo motivo la stessa OpenAI ha assoldato ben 170 medici, che si occuperanno di analizzare le delicate risposte fornite dal software.
Indice:
Un problema che tocca da vicino gli adolescenti
Negli ultimi mesi, peraltro, l'azienda è finita al centro dell’attenzione pubblica per un caso che ha scosso l’opinione mondiale: quello di un adolescente che si è tolto la vita dopo aver avuto lunghi scambi con il chatbot.
La famiglia ha intentato una causa contro l’azienda, accusandola di non aver saputo prevenire la tragedia. Intanto, anche le autorità si muovono: la Federal Trade Commission statunitense ha avviato un’indagine su OpenAI e su altre aziende del settore, per capire come queste realtà gestiscono i rischi e gli impatti dei loro strumenti su bambini e adolescenti.
L’impegno (e i limiti) di OpenAI
L’azienda, intanto, assicura di aver preso provvedimenti. Con l’arrivo di GPT-5, dice, sono stati aggiunti messaggi di avviso e pause consigliate per chi resta connesso troppo a lungo, oltre a un collegamento diretto con linee di supporto psicologico, nei Paesi dove sono disponibili.
OpenAI ha inoltre reclutato, come detto, decine di medici e professionisti della salute mentale per monitorare come risponde il chatbot in situazioni delicate: da quelle che riguardano la depressione ai casi più gravi di autolesionismo.
L’obiettivo, spiegano, è valutare se l’intelligenza artificiale riesce davvero a dare risposte “appropriate” o se, al contrario, rischia di rafforzare convinzioni o comportamenti pericolosi.
Quando l’AI 'ascolta' troppo
Uno dei problemi più discussi, su questo tema, è quello dell’adulazione algoritmica: la tendenza dei chatbot a confermare quello che l’utente dice o pensa, anche quando si tratta di idee dannose. In altre parole, l’AI tende a “compiacere” l’interlocutore invece di contraddirlo, e questo, nel caso di persone fragili o in crisi, può diventare estremamente pericoloso.
Per tale motivo, molti esperti invitano a non usare strumenti come ChatGPT per sostituire un aiuto umano, specialmente nei momenti di difficoltà psicologica.
L’intelligenza artificiale tra limiti e nuove regole
Il CEO di OpenAI, Sam Altman, ha recentemente dichiarato, ammettendo in parte che un problema esiste, che l’azienda sta cercando un equilibrio: "Abbiamo reso ChatGPT più restrittivo per tutelare chi attraversa problemi di salute mentale", ha spiegato su X. Ora, con nuove misure di sicurezza introdotte, OpenAI prevede di ridurre alcune limitazioni, pur mantenendo controlli sui contenuti più sensibili.