Black box e glass box nelle prove digitali

Deepfake, intelligenza artificiale, strumenti di enhancement e affidabilità della prova nel processo

di Domenico Moretta – Criminalista, Esperto in Digital Forensics e Diritto Digitale


Nel dibattito contemporaneo sulle prove digitali e sull’impiego dell’intelligenza artificiale nelle indagini e nei procedimenti giudiziari, ricorrono con sempre maggiore frequenza le espressioni black box e glass box.
Si tratta di concetti nati in ambito informatico, ma che oggi assumono una rilevanza decisiva sul piano forense, probatorio e giuridico, soprattutto quando si affrontano fenomeni complessi come i deepfake e l’uso di software di miglioramento audio-video.

Comprendere il significato sostanziale di queste categorie è fondamentale non solo per gli specialisti, ma anche per avvocati, magistrati e operatori del diritto chiamati a confrontarsi con prove digitali sempre più sofisticate.

Cosa si intende per “black box”

Con l’espressione black box si indica un sistema che:

  • riceve un input (immagine, video, audio);

  • elabora il dato tramite algoritmi complessi;

  • restituisce un output (classificazione, punteggio di probabilità, valutazione di autenticità),

senza che il percorso logico-matematico interno sia conoscibile o ricostruibile dall’utente.

Nel contesto della prova digitale, ciò comporta una criticità strutturale: il risultato può apparire affidabile, ma non è spiegabile né contestabile nel merito del metodo.

Vuoi rimanere aggiornato sulle ultime tendenze e tecnologie nel campo della digital forensics ?

Iscriviti alla nostra newsletter e ricevi informazioni esclusive, aggiornamenti sui nostri servizi e contenuti utili per il tuo lavoro.

Non perdere l’opportunità di essere sempre al passo con le ultime novità nel settore. Iscriviti ora e non perdere neanche una notizia!

La tua iscrizione non può essere convalidata.
La tua iscrizione è avvenuta correttamente.

Newsletter

Abbonati alla nostra newsletter e resta aggiornato.

Utilizziamo Sendinblue come nostra piattaforma di marketing. Cliccando qui sotto per inviare questo modulo, sei consapevole e accetti che le informazioni che hai fornito verranno trasferite a Sendinblue per il trattamento conformemente alle loro condizioni d'uso

Deepfake e modelli black box: la prima area di crisi

Nel fenomeno dei deepfake, la logica della black box si manifesta in modo particolarmente evidente.

Generazione del contenuto

I modelli di intelligenza artificiale impiegati per la creazione di deepfake sono in grado di:

  • simulare volti e voci;

  • riprodurre movimenti, espressioni e intonazioni;

  • generare contenuti altamente realistici.

Tuttavia, una volta prodotto il file finale, non è possibile ricostruire il processo specifico di generazione:
i dati di addestramento, i pesi decisionali e le scelte interne restano opachi.

Dal punto di vista forense, ci si trova di fronte a un contenuto che appare autentico, ma la cui genesi è intrinsecamente non verificabile.

Rilevazione automatica del fake

Molti strumenti di deepfake detection operano anch’essi come black box, restituendo output del tipo:

“Probabilità di contenuto artificiale: 90%”.

Un dato percentuale, però, non equivale a una motivazione tecnica:

  • non chiarisce quali parametri siano stati analizzati;

  • non consente di valutare margini di errore;

  • non permette una verifica indipendente.

In sede giudiziaria, questo approccio rischia di essere epistemologicamente fragile.

Il paradigma glass box: trasparenza e spiegabilità

Il modello glass box (o white box) rappresenta l’approccio opposto.

Si tratta di sistemi e metodologie progettati per essere:

  • trasparenti;

  • interpretabili;

  • spiegabili.

In una glass box:

  • i criteri di analisi sono dichiarati;

  • i passaggi sono ricostruibili;

  • il risultato può essere motivato e discusso.

Questo paradigma è particolarmente compatibile con le esigenze del diritto della prova.

Glass box e prova digitale: compatibilità con il processo

Spiegabilità tecnica

Un approccio glass box consente al consulente di indicare:

  • quali elementi del segnale audio o video sono stati analizzati;

  • quali anomalie o artefatti sono stati rilevati;

  • come tali elementi siano stati interpretati.

Il risultato diventa motivabile, e quindi valutabile dal giudice.

Ripetibilità e controllo

La trasparenza metodologica permette:

  • la ripetizione dell’analisi;

  • la verifica da parte della controparte;

  • il confronto tecnico nel contraddittorio.

Centralità del contraddittorio

Nel processo, non è sufficiente affermare che “un algoritmo ha deciso”.
È necessario poter discutere il metodo, non solo l’esito

L’altra faccia della medaglia: i tool di miglioramento immagini e video

Accanto al tema dei deepfake, esiste un profilo spesso sottovalutato ma altrettanto critico:
l’uso crescente di software commerciali di miglioramento (enhancement) di immagini e video, largamente impiegati anche in ambito investigativo e consulenziale.

Questi strumenti promettono di:

  • aumentare la risoluzione;

  • ridurre il rumore;

  • migliorare la leggibilità di volti, targhe, oggetti;

  • interpolare frame mancanti;

  • stabilizzare riprese degradate.

Dal punto di vista probatorio, però, si tratta di una zona grigia estremamente delicata.

Tool di enhancement e logica black box

La maggior parte dei software di miglioramento oggi disponibili opera secondo una logica tipicamente black box:

  • l’utente applica un preset;

  • il sistema produce un output visivamente più “chiaro”;

  • il processo interno resta ignoto.

Non è dato sapere se il dettaglio emerso:

  • fosse già presente nel dato originario;

  • sia stato semplicemente enfatizzato;

  • oppure sia stato ricostruito in modo artificiale sulla base di modelli statistici.

Miglioramento percettivo e affidabilità probatoria: una distinzione necessaria

Un errore concettuale frequente è confondere:

  • la maggiore leggibilità visiva
    con

  • la maggiore attendibilità probatoria.

Un video “migliorato”:

  • non è automaticamente più autentico;

  • non è automaticamente più affidabile;

  • non è automaticamente più utilizzabile in giudizio.

Se un dettaglio rilevante emerge solo dopo un processo di enhancement basato su AI opaca, la questione centrale diventa:

quel dettaglio era realmente contenuto nel dato originario?

Ricostruzione artificiale del dettaglio e rischio probatorio

Molti strumenti di enhancement non recuperano informazione perduta, ma la stimano:

  • sulla base di dataset di addestramento;

  • secondo criteri di plausibilità statistica;

  • producendo un contenuto coerente, ma non necessariamente vero.

In termini forensi, ciò significa muoversi sul confine tra:

  • analisi della prova;

  • e simulazione plausibile del reale.

Glass box, enhancement e “catena di custodia cognitiva”

Oltre alla tradizionale catena di custodia materiale (integrità del file, hash, conservazione), nelle prove digitali mediate da AI emerge una ulteriore dimensione:
la catena di custodia cognitiva.

Un approccio glass box al miglioramento immagini e video impone che:

  • l’originale sia sempre conservato e analizzato separatamente;

  • ogni trasformazione sia documentata;

  • sia chiaro cosa è stato reso visibile e cosa eventualmente ricostruito.

Il software non deve mai diventare un produttore silenzioso di contenuto probatorio.

Black box e glass box: un equilibrio necessario

È fondamentale chiarire che:

  • la black box non è di per sé illegittima;

  • può essere utile in fase investigativa ed esplorativa.

Il problema nasce quando il risultato di una black box viene trasferito automaticamente nel processo, senza un adeguato supporto metodologico e critico.

Nel contesto probatorio, la glass box non è un lusso accademico, ma una garanzia di legalità, verificabilità e difendibilità.

Considerazioni conclusive

Nel mondo delle prove digitali:

  • i deepfake mettono in crisi la fiducia nella fonte;

  • i tool di enhancement mettono in crisi la fiducia nell’interpretazione.

In entrambi i casi, il nodo centrale è la trasparenza del metodo.

La vera questione non è se utilizzare l’intelligenza artificiale, ma come e a quali condizioni utilizzarla.
Nel processo, dove sono in gioco diritti fondamentali, la spiegabilità non è un valore aggiunto: è una condizione di legittimità della prova.

✒️ Nota sull’autore

Domenico Moretta è criminalista forense, consulente tecnico specializzato in digital forensics, audio forense e trascrizioni giuridiche. Esperto in Diritto della Società Digitale. Autore di volumi divulgativi e professionali, affianca all’attività peritale un percorso di formazione universitaria in diritto della società digitale.
Con il progetto www.acquisizioneprovedigitali.it, promuove una cultura integrata tra scienze forensi e tutela dei diritti nell’ambiente digitale.

*Nota di trasparenza*: parte di questo contenuto è stato redatto con il supporto di strumenti di Intelligenza Artificiale, secondo quanto previsto dal Regolamento UE 2022/2065 (AI Act). Il contenuto è stato supervisionato e approvato da un professionista forense.