
Il dibattito attorno al corretto uso dell’Intelligenza Artificiale si fa sempre più acceso. L'ultima novità in ordine di tempo è l'introduzione da parte di OpenAI, la società che ha creato ChatGPT, della possibilità di attivare un "parental control" sul proprio chatbot. Una sorta di filtro di sicurezza, pensato per offrire ai genitori “la possibilità di comprendere meglio e determinare” come i figli utilizzano il servizio.
L’annuncio arriva dovo diversi casi di suicidio, che hanno visto protagonisti soprattutto adolescenti, che avevano adottato l'IA come confidente principale. Molto, per stimolare questo aggiornamento, ha fatto in particolare la denuncia fatta contro OpenAI e al CEO Sam Altman da parte dei genitori del sedicenne Adam Raine. Secondo l’accusa, ChatGPT avrebbe avuto un ruolo diretto nel suo suicidio.
Un episodio che ha scosso profondamente l’opinione pubblica e che riporta al centro del dibattito un tema cruciale: quanto possiamo fidarci dei chatbot quando si parla di salute mentale?
Indice
Le falle di sicurezza dei chatbot
Uno studio recente ha evidenziato come, nelle conversazioni che riguardano il suicidio, i chatbot basati su modelli linguistici di grandi dimensioni (LLM) possano fornire risposte rischiose e persino dannose. Non solo: questi strumenti sono facili da ingannare.
Secono il 'New York Times' Adam Raine sarebbe riuscito ad aggirare i protocolli di sicurezza di ChatGPT con l’aiuto dello stesso chatbot, arrivando a discutere e pianificare il proprio suicidio. “La tragedia non è stata un errore o un caso limite imprevisto, ma il risultato prevedibile di scelte progettuali deliberate”, sostiene la famiglia nella causa contro OpenAI.
L'azienda ammette le criticità
La società ha riconosciuto che il sistema non è impeccabile: “Le nostre misure di sicurezza funzionano in modo più affidabile negli scambi brevi e comuni. Nel corso del tempo, abbiamo imparato che talvolta possono rivelarsi meno affidabili nelle interazioni lunghe”. Questo significa che più la conversazione si prolunga, più aumentano i margini di errore, con risposte incoerenti o inadeguate in contesti delicati.
Le contromisure di OpenAI
Per affrontare la situazione, l’azienda ha annunciato una serie di nuove iniziative:
-
Collaborazione con oltre 90 professionisti medici di 30 Paesi, tra psichiatri, pediatri e medici di famiglia, con un gruppo consultivo dedicato a salute mentale e sviluppo giovanile.
-
Monitoraggio delle conversazioni in cui emergono intenzioni violente verso altri, con la possibilità di sospendere gli account o, nei casi più gravi, inoltrare segnalazioni alle autorità.
-
Miglioramento delle strategie di mitigazione del rischio, per rendere ChatGPT più affidabile anche nei dialoghi lunghi e complessi.
-
Sviluppo di nuove funzionalità in vista di GPT-5, progettate per gestire meglio conversazioni potenzialmente pericolose.
-
Introduzione, appounto, del parental control con la possibilità di indicare un contatto di emergenza.
Un cambio di rotta necessario
Finora l’utilizzo di ChatGPT era consentito dai 13 anni in su, con consenso dei genitori fino alla maggiore età. OpenAI non aveva mai voluto inserire un parental control, sostenendo che la supervisione spettasse a famiglie e tutori. Ma il caso di Adam Raine ha cambiato le cose. “Il nostro obiettivo non è conquistare l'attenzione delle persone. Invece di misurare il successo in base al tempo trascorso sul servizio o ai clic, ci interessa di più essere veramente utili. Quando da una conversazione emerge che una persona è vulnerabile e potrebbe essere a rischio, ChatGPT offre una serie di misure di sicurezza”.