
OpenAI ha aggiornato le regole d’uso di ChatGPT e degli altri suoi modelli, introducendo nuove tutele per gli utenti e limiti più chiari su temi sensibili. Dal 29 ottobre, il chatbot continua a rispondere su salute, diritto e altri argomenti delicati, ma con nuove cautele che puntano a garantire sicurezza, privacy e tutela dei minori.
Ecco cosa cambia davvero per chi utilizza l’intelligenza artificiale più diffusa al mondo.
Indice
Tutela dei minori e contrasto alla violenza
Le regole introdotte rafforzano i limiti contro molestie, minacce e contenuti sessuali non consensuali, inclusi i deepfake che denudano le vittime. ChatGPT non può generare o diffondere materiale riconducibile ad abusi, favorire adescamento o proporre sfide pericolose tra minori. Sono vietati anche contenuti che promuovano disturbi alimentari o comportamenti autolesionisti, così come l’umiliazione o la stigmatizzazione dell’aspetto fisico dei giovani utenti.
Profilazione e privacy: addio alle 'deduzioni'
OpenAI vieta, poi, qualsiasi uso dell’AI per classificare persone in base a comportamenti, dati biometrici o caratteristiche personali. Sono proibite deduzioni sulle emozioni di una persona e previsioni sulla propensione a comportamenti criminali. Anche l’impiego dell’AI per scopi di sicurezza nazionale o di intelligence richiede ora un’approvazione diretta di OpenAI, per evitare usi opachi e la raccolta non autorizzata di dati sensibili.
Consulenze professionali: la linea sottile tra informazione e responsabilità
ChatGPT può continuare a offrire risposte su salute, diritto o finanza, ma non sostituisce un medico, un avvocato o un consulente abilitato. Il divieto è più legale che tecnico: la responsabilità ricade sull’utente. OpenAI ricorda che l’AI può fornire spiegazioni o esempi, ma non diagnosi, prescrizioni o consulenze formali.
I divieti assoluti
Le nuove policy vietano l’uso dei modelli OpenAI anche per sviluppare, gestire o promuovere armi. ChatGPT, inoltre, non può più essere impiegato per campagne politiche, lobbying o interferenze elettorali. Il divieto si estende anche a contenuti grafici e video generati a scopo di disinformazione, oggi sempre più diffusi.
Conversazioni sensibili: l'AI è stata addestrata a riconoscere il disagio
Il modello è stato, infine, addestrato per identificare segnali di disagio: depressione, autolesionismo o psicosi. Grazie al contributo di 170 esperti tra psicologi, medici e assistenti sociali, quando ChatGPT rileva segnali di rischio, evita di dare consigli terapeutici e invita a rivolgersi a un supporto umano.