Riassunto
L’uso dell’intelligenza artificiale nelle prove digitali pone nuove e complesse sfide al processo. Deepfake, software di miglioramento immagini e video e strumenti di analisi automatica funzionano spesso come “black box”, rendendo opaco il metodo e fragile l’affidabilità probatoria. L’articolo analizza il paradigma alternativo delle “glass box” e le implicazioni forensi, giuridiche ed epistemologiche per la tenuta della prova digitale.
Black box e glass box nelle prove digitali
Deepfake, intelligenza artificiale, strumenti di enhancement e affidabilità della prova nel processo
di Domenico Moretta – Criminalista, Esperto in Digital Forensics e Diritto Digitale
Nel dibattito contemporaneo sulle prove digitali e sull’impiego dell’intelligenza artificiale nelle indagini e nei procedimenti giudiziari, ricorrono con sempre maggiore frequenza le espressioni black box e glass box.
Si tratta di concetti nati in ambito informatico, ma che oggi assumono una rilevanza decisiva sul piano forense, probatorio e giuridico, soprattutto quando si affrontano fenomeni complessi come i deepfake e l’uso di software di miglioramento audio-video.
Comprendere il significato sostanziale di queste categorie è fondamentale non solo per gli specialisti, ma anche per avvocati, magistrati e operatori del diritto chiamati a confrontarsi con prove digitali sempre più sofisticate.
Cosa si intende per “black box”
Con l’espressione black box si indica un sistema che:
-
riceve un input (immagine, video, audio);
-
elabora il dato tramite algoritmi complessi;
-
restituisce un output (classificazione, punteggio di probabilità, valutazione di autenticità),
senza che il percorso logico-matematico interno sia conoscibile o ricostruibile dall’utente.
Nel contesto della prova digitale, ciò comporta una criticità strutturale: il risultato può apparire affidabile, ma non è spiegabile né contestabile nel merito del metodo.
Vuoi rimanere aggiornato sulle ultime tendenze e tecnologie nel campo della digital forensics ?
Iscriviti alla nostra newsletter e ricevi informazioni esclusive, aggiornamenti sui nostri servizi e contenuti utili per il tuo lavoro.
Non perdere l’opportunità di essere sempre al passo con le ultime novità nel settore. Iscriviti ora e non perdere neanche una notizia!
Deepfake e modelli black box: la prima area di crisi
Nel fenomeno dei deepfake, la logica della black box si manifesta in modo particolarmente evidente.
Generazione del contenuto
I modelli di intelligenza artificiale impiegati per la creazione di deepfake sono in grado di:
-
simulare volti e voci;
-
riprodurre movimenti, espressioni e intonazioni;
-
generare contenuti altamente realistici.
Tuttavia, una volta prodotto il file finale, non è possibile ricostruire il processo specifico di generazione:
i dati di addestramento, i pesi decisionali e le scelte interne restano opachi.
Dal punto di vista forense, ci si trova di fronte a un contenuto che appare autentico, ma la cui genesi è intrinsecamente non verificabile.
Rilevazione automatica del fake
Molti strumenti di deepfake detection operano anch’essi come black box, restituendo output del tipo:
“Probabilità di contenuto artificiale: 90%”.
Un dato percentuale, però, non equivale a una motivazione tecnica:
-
non chiarisce quali parametri siano stati analizzati;
-
non consente di valutare margini di errore;
-
non permette una verifica indipendente.
In sede giudiziaria, questo approccio rischia di essere epistemologicamente fragile.
Il paradigma glass box: trasparenza e spiegabilità
Il modello glass box (o white box) rappresenta l’approccio opposto.
Si tratta di sistemi e metodologie progettati per essere:
-
trasparenti;
-
interpretabili;
-
spiegabili.
In una glass box:
-
i criteri di analisi sono dichiarati;
-
i passaggi sono ricostruibili;
-
il risultato può essere motivato e discusso.
Questo paradigma è particolarmente compatibile con le esigenze del diritto della prova.
Glass box e prova digitale: compatibilità con il processo
Spiegabilità tecnica
Un approccio glass box consente al consulente di indicare:
-
quali elementi del segnale audio o video sono stati analizzati;
-
quali anomalie o artefatti sono stati rilevati;
-
come tali elementi siano stati interpretati.
Il risultato diventa motivabile, e quindi valutabile dal giudice.
Ripetibilità e controllo
La trasparenza metodologica permette:
-
la ripetizione dell’analisi;
-
la verifica da parte della controparte;
-
il confronto tecnico nel contraddittorio.
Centralità del contraddittorio
Nel processo, non è sufficiente affermare che “un algoritmo ha deciso”.
È necessario poter discutere il metodo, non solo l’esito
L’altra faccia della medaglia: i tool di miglioramento immagini e video
Accanto al tema dei deepfake, esiste un profilo spesso sottovalutato ma altrettanto critico:
l’uso crescente di software commerciali di miglioramento (enhancement) di immagini e video, largamente impiegati anche in ambito investigativo e consulenziale.
Questi strumenti promettono di:
-
aumentare la risoluzione;
-
ridurre il rumore;
-
migliorare la leggibilità di volti, targhe, oggetti;
-
interpolare frame mancanti;
-
stabilizzare riprese degradate.
Dal punto di vista probatorio, però, si tratta di una zona grigia estremamente delicata.
Tool di enhancement e logica black box
La maggior parte dei software di miglioramento oggi disponibili opera secondo una logica tipicamente black box:
-
l’utente applica un preset;
-
il sistema produce un output visivamente più “chiaro”;
-
il processo interno resta ignoto.
Non è dato sapere se il dettaglio emerso:
-
fosse già presente nel dato originario;
-
sia stato semplicemente enfatizzato;
-
oppure sia stato ricostruito in modo artificiale sulla base di modelli statistici.
Miglioramento percettivo e affidabilità probatoria: una distinzione necessaria
Un errore concettuale frequente è confondere:
-
la maggiore leggibilità visiva
con -
la maggiore attendibilità probatoria.
Un video “migliorato”:
-
non è automaticamente più autentico;
-
non è automaticamente più affidabile;
-
non è automaticamente più utilizzabile in giudizio.
Se un dettaglio rilevante emerge solo dopo un processo di enhancement basato su AI opaca, la questione centrale diventa:
quel dettaglio era realmente contenuto nel dato originario?
Ricostruzione artificiale del dettaglio e rischio probatorio
Molti strumenti di enhancement non recuperano informazione perduta, ma la stimano:
-
sulla base di dataset di addestramento;
-
secondo criteri di plausibilità statistica;
-
producendo un contenuto coerente, ma non necessariamente vero.
In termini forensi, ciò significa muoversi sul confine tra:
-
analisi della prova;
-
e simulazione plausibile del reale.
Glass box, enhancement e “catena di custodia cognitiva”
Oltre alla tradizionale catena di custodia materiale (integrità del file, hash, conservazione), nelle prove digitali mediate da AI emerge una ulteriore dimensione:
la catena di custodia cognitiva.
Un approccio glass box al miglioramento immagini e video impone che:
-
l’originale sia sempre conservato e analizzato separatamente;
-
ogni trasformazione sia documentata;
-
sia chiaro cosa è stato reso visibile e cosa eventualmente ricostruito.
Il software non deve mai diventare un produttore silenzioso di contenuto probatorio.
Black box e glass box: un equilibrio necessario
È fondamentale chiarire che:
-
la black box non è di per sé illegittima;
-
può essere utile in fase investigativa ed esplorativa.
Il problema nasce quando il risultato di una black box viene trasferito automaticamente nel processo, senza un adeguato supporto metodologico e critico.
Nel contesto probatorio, la glass box non è un lusso accademico, ma una garanzia di legalità, verificabilità e difendibilità.
Considerazioni conclusive
Nel mondo delle prove digitali:
-
i deepfake mettono in crisi la fiducia nella fonte;
-
i tool di enhancement mettono in crisi la fiducia nell’interpretazione.
In entrambi i casi, il nodo centrale è la trasparenza del metodo.
La vera questione non è se utilizzare l’intelligenza artificiale, ma come e a quali condizioni utilizzarla.
Nel processo, dove sono in gioco diritti fondamentali, la spiegabilità non è un valore aggiunto: è una condizione di legittimità della prova.
✒️ Nota sull’autore
Domenico Moretta è criminalista forense, consulente tecnico specializzato in digital forensics, audio forense e trascrizioni giuridiche. Esperto in Diritto della Società Digitale. Autore di volumi divulgativi e professionali, affianca all’attività peritale un percorso di formazione universitaria in diritto della società digitale.
Con il progetto www.acquisizioneprovedigitali.it, promuove una cultura integrata tra scienze forensi e tutela dei diritti nell’ambiente digitale.
*Nota di trasparenza*: parte di questo contenuto è stato redatto con il supporto di strumenti di Intelligenza Artificiale, secondo quanto previsto dal Regolamento UE 2022/2065 (AI Act). Il contenuto è stato supervisionato e approvato da un professionista forense.