
Un cambiamento graduale ma profondo, e gli utenti di ChatGPT iniziano ad accorgersene. In molti, negli ultimi giorni, hanno segnalato che il chatbot di OpenAI, fino a pochi giorni fa pronto a rispondere su ogni tema, ora si rifiuta di fornire suggerimenti personalizzati in ambito medico, legale o finanziario.
Ebbene, non si tratta di un bug: dietro questo comportamento c’è un aggiornamento ufficiale delle regole di utilizzo, entrato in vigore il 29 ottobre 2025.
Con la nuova policy, OpenAI impone proprio limiti stringenti alle risposte e agli impieghi dei propri sistemi, uniformandosi all’AI Act europeo e cercando di prevenire eventuali controversie legali negli Stati Uniti.
Indice
Stop alle consulenze personalizzate
La novità principale riguarda il divieto di fornire consigli personalizzati in settori che richiedono un’abilitazione professionale. Nelle nuove “usage policies”, OpenAI scrive, infatti, che i propri servizi non possono essere impiegati per offrire “consulenze personalizzate che richiedono un’abilitazione professionale, come quelle in ambito legale o medico, senza il coinvolgimento appropriato di un professionista autorizzato”.
Il chatbot potrà, invece, fornire soltanto informazioni generali e contenuti a scopo educativo.
Le nuove aree “ad alto rischio”
Più in generale, tra le novità c'è il divieto di usare l’intelligenza artificiale per decisioni automatizzate in settori “ad alto rischio”: finanza, lavoro, istruzione, sanità, assicurazioni, servizi creditizi e pubblici. L’obiettivo è evitare che il chatbot influenzi scelte che possono avere conseguenze dirette su persone e imprese.
Sono inoltre vietati l’uso dell’IA per il riconoscimento facciale o biometrico senza consenso, la creazione di deepfake non autorizzati e qualsiasi applicazione in ambito di sicurezza nazionale o intelligence senza un’approvazione preventiva di OpenAI.
Le stesse regole si estendono anche ai GPT personalizzati: quelli che violeranno la policy potranno essere rimossi, ma lasciando aperta la possibilità per gli sviluppatori di presentare un ricorso.
Tutela dei minori e contenuti sensibili
La nuova policy dedica, poi, un’intera sezione alla protezione dei minori. A tal proposito, è vietata qualsiasi forma di contenuto esplicito o potenzialmente dannoso, compresi quelli che possono incoraggiare autolesionismo, disturbi alimentari o sfide pericolose. Sono banditi anche i contenuti che riguardano il suicidio o l’adescamento online.
Parallelamente, OpenAI ha migliorato il riconoscimento dei casi di crisi psicologica degli utenti. Grazie al contributo di 170 esperti, le risposte inadeguate sono state ridotte di circa l’80%.
Una policy per l’uso “responsabile” dell’IA
L’aggiornamento si inserisce in una più ampia revisione dei termini d’uso dei servizi OpenAI. Il testo, composto da poco più di 7.000 caratteri, si fonda su quattro principi: proteggere le persone, rispettare la privacy, garantire la sicurezza dei minori e dare potere agli utenti.
Tra i punti di forza, la possibilità di segnalare comportamenti scorretti dell’IA e richiedere revisioni o blocchi di contenuti ritenuti inappropriati. Un modo, spiega l’azienda, per garantire “innovazione responsabile, sicurezza come priorità, monitoraggio e aggiornamento continuo”.
Intelligenze artificiali e nuove regole del gioco
Le modifiche alle “usage policies” arrivano in un contesto di crescente attenzione normativa. L’AI Act europeo, approvato nei mesi scorsi, impone limiti severi agli usi dell’intelligenza artificiale nei settori sensibili. OpenAI, da parte sua, sta dunque allineando le proprie pratiche agli standard più rigorosi.