Riassunto

Il Garante Privacy ha stabilito che l’offuscamento del volto non rende un dato anonimo. Anche con IA avanzata, un’immagine resta un dato personale se consente l’identificazione, anche indiretta. Una riflessione sulle implicazioni pratiche del provvedimento 202/2025 per chi opera nel trattamento di dati video e sulla necessità di un approccio realmente conforme al GDPR.

❝Offuscare i volti non basta: perché il dato resta personale e va tutelato❞

Telecamere cittadine, Intelligenza Artificiale e Privacy: cosa ci insegna il Provvedimento n. 202/2025 del Garante

Nel mondo sempre più iperconnesso e sorvegliato in cui viviamo, parlare di “dato” non è solo una questione di tecnologia, ma soprattutto di diritti. In particolare, di diritto alla protezione dei dati personali, riconosciuto come fondamentale nell’ordinamento europeo e nazionale.

Ma cos’è un dato personale? Non solo nome e cognome: per il GDPR, è qualsiasi informazione che renda una persona identificata o identificabile. Questo include – e non è un caso emblematico – l’immagine del volto, anche se ripresa per una frazione di secondo e poi “annebbiata” da un algoritmo.

È proprio questo il cuore del Provvedimento n. 202 del 10 aprile 2025, con cui il Garante Privacy ha sanzionato l’Agenzia Mobilità Ambiente e Territorio (AMAT) per il trattamento illecito di dati personali raccolti tramite un sistema di telecamere con intelligenza artificiale installate a Milano.

📍 Il contesto: IA urbana e sorveglianza “discreta”

Il sistema in questione prometteva un monitoraggio “a prova di privacy”, grazie all’uso di IA in grado di censire in modo automatico tutti i flussi di mobilità urbana (auto, bici, pedoni, monopattini), senza salvare targhe o volti, che venivano offuscati in automatico. Ma secondo il Garante, questa rassicurazione è tecnicamente e giuridicamente insufficiente.

Vuoi rimanere aggiornato sulle ultime tendenze e tecnologie nel campo della digital forensics ?

Iscriviti alla nostra newsletter e ricevi informazioni esclusive, aggiornamenti sui nostri servizi e contenuti utili per il tuo lavoro.

Non perdere l’opportunità di essere sempre al passo con le ultime novità nel settore. Iscriviti ora e non perdere neanche una notizia!

La tua iscrizione non può essere convalidata.
La tua iscrizione è avvenuta correttamente.

Newsletter

Abbonati alla nostra newsletter e resta aggiornato.

Utilizziamo Sendinblue come nostra piattaforma di marketing. Cliccando qui sotto per inviare questo modulo, sei consapevole e accetti che le informazioni che hai fornito verranno trasferite a Sendinblue per il trattamento conformemente alle loro condizioni d'uso

🔍 Il nodo centrale: identificabilità indiretta

Il dato è anonimo solo se non consente in alcun modo di risalire all’identità, neanche indirettamente. L’offuscamento di un volto o di una targa, anche se apparentemente efficace, non elimina altri elementi potenzialmente identificanti:

  • corporatura, abbigliamento, postura, movimenti;

  • contesto spaziale (es. davanti a uno studio medico);

  • combinazione di più fonti (testimoni, immagini pubblicate, pattern di spostamento tra più telecamere).

Ecco perché, anche se il trattamento è interamente automatizzato senza intervento umano, la sola acquisizione temporanea delle immagini in chiaro è sufficiente a qualificare l’attività come trattamento di dati personali.

⚖️ Le responsabilità e la sanzione

Il Garante ha ritenuto il trattamento illecito sotto diversi profili:

  • mancata base giuridica adeguata;

  • insufficiente trasparenza informativa verso gli interessati;

  • assenza di una valutazione d’impatto documentata e protocollata prima dell’attivazione;

  • conflitto d’interessi del RPD, che ha redatto in proprio la DPIA.

Sanzione: 9.000 euro, con pubblicazione del provvedimento integrale sul sito del Garante.

📌 Cosa impariamo da questo caso?

  1. Offuscare non significa anonimizzare: la sola rimozione di elementi evidenti non garantisce la non identificabilità.

  2. La videosorveglianza intelligente è trattamento dati a tutti gli effetti, anche se non coinvolge direttamente operatori umani.

  3. Ogni trattamento richiede una base giuridica solida, una valutazione d’impatto ben redatta e una comunicazione trasparente verso i cittadini.

  4. Il principio di accountability non è un mero adempimento documentale: è un obbligo sostanziale, da pianificare prima e da rendicontare durante tutta la vita del trattamento.

✍️ Conclusione

Nel panorama forense e investigativo, il tema della videosorveglianza intelligente pone sfide cruciali, tra esigenze legittime di sicurezza urbana e tutela dei diritti individuali. Questo provvedimento rappresenta un monito per tutti gli enti pubblici e privati che impiegano sistemi di AI applicati alla raccolta di immagini: non basta “annebbiare” un volto per cancellarne l’identità.


🔹 Domenico Moretta – Criminalista e Forense Digitale
www.acquisizioneprovedigitali.it