5 min
Clothoff

L'ultima frontiera del dark side del digitale si chiama deep nude e, perciò, il Garante per la protezione dei dati personali ha recentemente provato a imporgli un freno, attraverso lo stop immediato a uno dei servizi più controversi: l'App Clothoff. Si tratta di un'applicazione, sviluppata da una società con sede nelle Isole Vergini Britanniche, che sfrutta l'Intelligenza Artificiale per generare proprio “deep nude”, ovvero foto e video falsi in cui le persone sono state "spogliate" digitalmente.

Parliamo di contenuti sessualmente espliciti, come detto falsi, creati senza il consenso della persona ritratta, e il cui utilizzo è accessibile anche ai minorenni, senza alcun tipo di verifica. Un mix di pericoli che ha generato un allarme sociale non indifferente. 

Il Garante ha così agito con un provvedimento d'urgenza proprio per proteggere la dignità, la privacy e i diritti fondamentali degli utenti italiani, a partire dai più giovani. E non finisce qui: è stata avviata anche un'indagine più ampia che punta a smascherare e bloccare tutte le altre App di nudificazione simili a Clothoff.

Indice

  1. Deepfake in aumento
  2. Il provvedimento d'urgenza contro la piattaforma
  3. I casi in Italia

Deepfake in aumento

I numeri fanno paura e fotografano un fenomeno in rapidissima espansione. Un'indagine condotta dall'organizzazione no profit americana Thorn, specializzata nella sicurezza dei minori, ha rivelato dati scioccanti: un adolescente su 17 - tra i 13 e i 20 anni - è stato vittima di deepfake pornografici.

Non solo, uno su otto degli intervistati conosce personalmente qualcuno che è stato colpito da questa forma di abuso digitale. Questo perché piattaforme di AI generativa come Clothoff, ma anche BikiniOff e DeepNude, sono in grado di manipolare fotografie comuni trasformandole in immagini sessualmente esplicite senza il consenso di chi è ritratto. In modo piuttosto semplice.

E la ricerca di Thorn ha anche evidenziato che il 13% degli adolescenti conosce qualcuno che ha usato l’AI per creare o ridistribuire materiale pornografico deepfake che raffigura minori.

Secondo Graphika, una società che analizza i social network, sono oltre 100 i siti di “nudify” che registrano milioni di visitatori ogni mese. Nessuno, teoricamente, è al sicuro. In Gran Bretagna, secondo la società di sicurezza Eset, una donna su 10 è stata vittima di deepfake pornography.

Il provvedimento d'urgenza contro la piattaforma

Il Garante ha disposto l'immediata limitazione provvisoria del trattamento dei dati degli utenti italiani.

La cosa grave, ha riscontrato chi ha monitorato Clothoff, è che non esiste alcun meccanismo efficace di verifica dell’identità o del consenso degli interessati. Inoltre, il watermark (il contrassegno) applicato alle immagini per renderle riconoscibili come artificiali, è poco visibile e facilmente rimovibile, facilitando l'uso illecito dei contenuti.

Il provvedimento richiama esplicitamente il GDPR (il regolamento europeo sulla protezione dei dati) e il nuovo AI Act europeo, che impone l’obbligo di marcare in modo inequivocabile i contenuti creati dall'IA.

Il Garante ha sottolineato come l’azienda abbia trasferito sugli utilizzatori la responsabilità dell’uso del servizio, limitandosi a divieti formali senza misure tecniche efficaci per prevenire l’abuso. Quando, specialmente per i minori, la legge italiana 132/2025 stabilisce soglie di età precise per il consenso: per i minori sotto i 14 anni è richiesto il consenso genitoriale, mentre per quelli tra 14 e 18 anni occorrono informazioni comprensibili sui rischi connessi.

Ma Clothoff opera in aperta violazione di queste disposizioni, non effettuando alcuna verifica anagrafica.

I casi in Italia

Purtroppo, anche in Italia si sono già verificati diversi episodi di cronaca legati a questa tecnologia. Nel 2023, per esempio, due studenti di una scuola media a Roma hanno pubblicato sui social foto di loro coetanee create con l'app BikiniOff. Ancora più recente, nel 2024, è il caso che ha visto coinvolti cinque studenti minorenni in provincia di Latina che hanno manipolato immagini di compagne, prelevate direttamente dai loro profili Instagram.

Intanto, il blocco di Clothoff rimane in vigore fino alla conclusione dell’istruttoria, un periodo in cui si verificherà se l'App è disposta a implementare misure di sicurezza adeguate e a conformarsi alle normative europee e nazionali.

Skuola | TV
Morire per il bullismo: parlano i genitori di Paolo Mendico | Intervista esclusiva

Si può morire per il bullismo ancora nel 2025? Purtroppo sì, come scopriremo in questa puntata speciale di #sapevatelo, il format con il quale spieghiamo cose.

Segui la diretta