Riassunto

Il Garante Privacy ha disposto lo stop immediato all’app Clothoff, capace di generare “deep nude” con l’AI. Un provvedimento urgente contro i rischi per dignità, privacy e dati personali, soprattutto dei minori. Analizziamo il caso, i profili giuridici e le sfide future per la tutela dei diritti digitali.

Deepfake e nudificazione AI: il Garante blocca Clothoff. Una sfida per i diritti digitali

Il 1° ottobre 2025, il Garante per la protezione dei dati personali ha disposto un provvedimento urgente nei confronti dell’app Clothoff, imponendo la limitazione provvisoria del trattamento dei dati degli utenti italiani. Garante Privacy  L’Autorità ha motivato lo stop con “elevati rischi per i diritti e le libertà fondamentali”, in particolare quando riguarda la dignità e la privacy delle persone, con attenzione particolare ai minorenni.

📌 Che cosa fa Clothoff

Clothoff è un’app basata su AI generativa che consente di trasformare fotografie di persone — anche con vestiti — in immagini false di nudo (deep nude).

L’accesso è previsto con modalità gratuite e a pagamento, senza che vi sia un meccanismo davvero efficace di verifica dell’età o di accertamento del consenso della persona ritratta. Inoltre, l’app non appone etichette né marcatori che segnalino che l’immagine è artificiale

Un aspetto particolarmente grave è che Clothoff è già stato menzionato in documenti del Parlamento europeo come esempio emblematico di app che non chiedono né l’età dell’utente né quella della persona ritratta, e che sono state utilizzate anche per “spogliare” ragazze minorenni in locali spagnoli. Parlamento Europeo

🌍 Tracce internazionali e indagini giornalistiche

Un’inchiesta del The Guardian ha messo in luce legami tra ClothOff (forma variante del nome) e soggetti residenti in Bielorussia e Russia, identificando possibili responsabili, collegamenti societari opachi attraverso società “schermo” e transazioni finanziarie criptiche. The Guardian In quel contesto, è emerso che l’app invitava gli utenti a “undress anyone using AI” (spoglia chiunque usando l’AI), con prezzi per crediti di elaborazione e l’uso di società registrate in Londra per mascherare i flussi finanziari.

Questa indagine rafforza l’idea che la dimensione locale (cioè il provvedimento italiano) si intreccia con un contesto globale: aziende, server, conti bancari e sviluppatori possono trovarsi su territori con scarsa regolamentazione o opacità, rendendo più complessa l’azione delle autorità nazionali.

Vuoi rimanere aggiornato sulle ultime tendenze e tecnologie nel campo della digital forensics ?

Iscriviti alla nostra newsletter e ricevi informazioni esclusive, aggiornamenti sui nostri servizi e contenuti utili per il tuo lavoro.

Non perdere l’opportunità di essere sempre al passo con le ultime novità nel settore. Iscriviti ora e non perdere neanche una notizia!

La tua iscrizione non può essere convalidata.
La tua iscrizione è avvenuta correttamente.

Newsletter

Abbonati alla nostra newsletter e resta aggiornato.

Utilizziamo Sendinblue come nostra piattaforma di marketing. Cliccando qui sotto per inviare questo modulo, sei consapevole e accetti che le informazioni che hai fornito verranno trasferite a Sendinblue per il trattamento conformemente alle loro condizioni d'uso

⚖ Profili giuridici e criticità

1. Violazione della dignità e del consenso

Creare immagini sessualmente esplicite di persone reali, senza il loro consenso, costituisce una lesione grave della dignità e intacca la loro reputazione personale. Il diretto coinvolgimento di immagini ritraenti minori rende la questione ancora più critica.

2. Protezione dei dati personali (GDPR)

L’app, nel suo funzionamento, tratta dati biometrici (immagini del volto e del corpo), e dati “sensibili” relativi a contenuti intimi. In mancanza di un adeguato consenso informato, la base giuridica del trattamento appare estremamente debole. Inoltre, la mancanza di misure tecniche (watermark, tracciabilità, registri di log) rende difficile esercitare i diritti degli interessati (accesso, cancellazione, opposizione).

3. Responsabilità dei provider / intermediari

Se la società che gestisce l’app è localizzata in giurisdizioni estere (Isole Vergini Britanniche o paesi meno trasparenti), occorre capire come l’Autorità italiana potrà ottenere cooperazione, dati, blocchi tecnici, e sanzioni effettive.

4. Rilievo penale implicito

Il fenomeno può incrociare fattispecie penali (diffusione illecita di immagini sessualmente esplicite, pornografia minorile virtuale, abuso dell’immagine) e giungere fino a reati contro la privacy e la personalità.

5. Precedenti simili: DeepNude, BikiniOff

In passato, il Garante aveva già aperto istruttorie su servizi come DeepNude utilizzati su Telegram per togliere i vestiti da foto (senza consenso) Diritto Informatica e analisti legali hanno discusso il caso di BikiniOff, un bot che trasformava immagini in modo simile, portando a indagini in Italia per possibili implicazioni penali. Networklex

🔮 Quali scenari per il futuro?

  • Normativa AI e responsabilità obbligatoria: servono regole europee (es. regolamento AI dell’UE) che stabiliscano obblighi di trasparenza, watermark obbligatori, controlli di identità e limiti d’uso per generazione di contenuti sessuali.

  • Cooperazione internazionale: senza accordi transnazionali e meccanismi di collaborazione, applicare misure efficaci contro soggetti che operano da paesi “opachi” resta arduo.

  • Strumenti forensi evoluti: nell’ambito delle perizie digitali, serviranno metodologie per rilevare che un’immagine è generata, per recuperare tracce nei dati grezzi, per correlare l’uso dell’app con identificativi di device o traffico di rete.

  • Educazione digitale e prevenzione: sensibilizzare studenti, famiglie, docenti sui rischi del deepfake e diffondere strumenti di denuncia e rimozione dei contenuti dannosi.

Il provvedimento del Garante su Clothoff non è solo una misura “riparatoria”, ma segna l’inizio di una battaglia concettuale: chi decidesse di “spogliare” digitalmente un individuo senza permesso, deve sapere che non potrà operare nell’impunità.

🔍 Vuoi capire come valorizzare correttamente una prova digitale o integrare la blockchain nei tuoi processi giuridici?
Contattami per una consulenza forense personalizzata o per approfondire le applicazioni probatorie della tecnologia.

📩 Scrivimi su info@acquisizioneprovedigitali.it oppure su WhatsApp al 392 631 7748.

✒️ Nota sull’autore

Domenico Moretta è criminalista forense, consulente tecnico specializzato in digital forensics, audio forense e trascrizioni giuridiche. Esperto in Diritto della Società Digitale. Autore di volumi divulgativi e professionali, affianca all’attività peritale un percorso di formazione universitaria in diritto della società digitale.
Con il progetto www.acquisizioneprovedigitali.it, promuove una cultura integrata tra scienze forensi e tutela dei diritti nell’ambiente digitale.

*Nota di trasparenza*: parte di questo contenuto è stato redatto con il supporto di strumenti di Intelligenza Artificiale, secondo quanto previsto dal Regolamento UE 2022/2065 (AI Act). Il contenuto è stato supervisionato e approvato da un professionista forense.