Daniele Grassucci
Autore
ChatGPT e salute mentale: l’AI può diventare un rischio per gli adolescenti? articolo

Oltre un milione di utenti ogni settimana scrive su ChatGPT messaggi che contengono riferimenti a intenzioni o pensieri suicidi. E non è tutto: secondo i dati diffusi da OpenAI - l'azienda che ha sviluppato il chatbot - circa 560mila persone mostrano segnali riconducibili a emergenze di salute mentale, come episodi di mania o psicosi.

Sono numeri che fanno riflettere, soprattutto perché riguardano anche tanti giovani adolescenti.

Per questo motivo la stessa OpenAI ha assoldato ben 170 medici, che si occuperanno di analizzare le delicate risposte fornite dal software.

Indice:

  1. Un problema che tocca da vicino gli adolescenti
  2. L’impegno (e i limiti) di OpenAI
  3. Quando l’AI 'ascolta' troppo
  4. L’intelligenza artificiale tra limiti e nuove regole

Un problema che tocca da vicino gli adolescenti

Negli ultimi mesi, peraltro, l'azienda è finita al centro dell’attenzione pubblica per un caso che ha scosso l’opinione mondiale: quello di un adolescente che si è tolto la vita dopo aver avuto lunghi scambi con il chatbot.

La famiglia ha intentato una causa contro l’azienda, accusandola di non aver saputo prevenire la tragedia. Intanto, anche le autorità si muovono: la Federal Trade Commission statunitense ha avviato un’indagine su OpenAI e su altre aziende del settore, per capire come queste realtà gestiscono i rischi e gli impatti dei loro strumenti su bambini e adolescenti.

L’impegno (e i limiti) di OpenAI

L’azienda, intanto, assicura di aver preso provvedimenti. Con l’arrivo di GPT-5, dice, sono stati aggiunti messaggi di avviso e pause consigliate per chi resta connesso troppo a lungo, oltre a un collegamento diretto con linee di supporto psicologico, nei Paesi dove sono disponibili.

OpenAI ha inoltre reclutato, come detto, decine di medici e professionisti della salute mentale per monitorare come risponde il chatbot in situazioni delicate: da quelle che riguardano la depressione ai casi più gravi di autolesionismo.

L’obiettivo, spiegano, è valutare se l’intelligenza artificiale riesce davvero a dare risposte “appropriate” o se, al contrario, rischia di rafforzare convinzioni o comportamenti pericolosi.

Quando l’AI 'ascolta' troppo

Uno dei problemi più discussi, su questo tema, è quello dell’adulazione algoritmica: la tendenza dei chatbot a confermare quello che l’utente dice o pensa, anche quando si tratta di idee dannose. In altre parole, l’AI tende a “compiacere” l’interlocutore invece di contraddirlo, e questo, nel caso di persone fragili o in crisi, può diventare estremamente pericoloso.

Per tale motivo, molti esperti invitano a non usare strumenti come ChatGPT per sostituire un aiuto umano, specialmente nei momenti di difficoltà psicologica.

L’intelligenza artificiale tra limiti e nuove regole

Il CEO di OpenAI, Sam Altman, ha recentemente dichiarato, ammettendo in parte che un problema esiste, che l’azienda sta cercando un equilibrio: "Abbiamo reso ChatGPT più restrittivo per tutelare chi attraversa problemi di salute mentale", ha spiegato su X. Ora, con nuove misure di sicurezza introdotte, OpenAI prevede di ridurre alcune limitazioni, pur mantenendo controlli sui contenuti più sensibili.

A cura della Redazione di Skuola.net Questo articolo è frutto del lavoro condiviso della redazione di Skuola.net (direttore Daniele Grassucci): un team di giornalisti, data analyst ed esperti del settore education che ogni giorno produce contenuti e approfondimenti originali, seleziona e verifica le notizie più rilevanti per studenti e famiglie, garantendo un'informazione gratuita, accurata e trasparente.
Skuola | TV
Educazione Sessuale in famiglia: i consigli di mamma Monica Calcagni e figlia Caterina in podcast

Cosa succede se la ginecologa più famosa d’Italia e la figlia adolescente parlano di sesso? Tra falsi miti e consigli pratici, ecco il podcast per genitori e figli da vedere insieme.

Segui la diretta