Riassunto
L’articolo analizza in chiave scientifica l’impiego dell’Intelligenza Artificiale nella Digital Forensics, evidenziandone implicazioni etiche, epistemologiche e giuridiche. Alla luce del GDPR, dell’AI Act europeo e della Legge italiana 23 settembre 2025 n. 132, viene proposto un modello metodologico per l’uso forense dell’AI fondato su controllo umano, trasparenza e verificabilità probatoria.
Intelligenza Artificiale e Digital Forensics
Etica, metodo e valore probatorio nell’ordinamento europeo e italiano
di Domenico Moretta – Criminalista, Esperto in Digital Forensics e Diritto Digitale
Abstract
L’impiego dell’Intelligenza Artificiale (AI) e del Machine Learning (ML) nelle attività di Digital Forensics e Incident Response (DFIR) rappresenta un mutamento strutturale del paradigma dell’accertamento tecnico nel dominio digitale. L’AI consente di affrontare la crescente complessità e volumetria delle evidenze digitali, supportando l’analisi di dati eterogenei quali immagini, video, audio, comunicazioni elettroniche e log di sistema.
Tuttavia, l’introduzione di sistemi algoritmici nei processi forensi solleva questioni etiche, epistemologiche e giuridiche che incidono direttamente sull’affidabilità dell’accertamento e sulla spendibilità processuale dei risultati.
Il presente contributo propone un’analisi critica dell’uso dell’AI in Digital Forensics, collocandolo nel quadro normativo europeo e italiano — con particolare riferimento al GDPR, al AI Act e alla Legge 23 settembre 2025 n. 132 — e delineando un modello metodologico coerente con i principi della prova digitale, fondato su controllo umano, trasparenza e verificabilità in contraddittorio.
Premessa metodologica: l’AI come strumento epistemicamente non autonomo
Nel contesto della Digital Forensics contemporanea, l’Intelligenza Artificiale si inserisce come tecnologia abilitante capace di amplificare le possibilità analitiche dell’investigatore forense. Tale ampliamento, tuttavia, non può essere interpretato come una delega cognitiva allo strumento.
Dal punto di vista epistemologico, i sistemi di AI non producono conoscenza in senso proprio, ma elaborano correlazioni statistiche a partire da dati e modelli predefiniti. L’output algoritmico è, pertanto, il risultato di una costruzione tecnico-matematica e non di un processo valutativo dotato di intenzionalità o comprensione semantica.
In ambito forense, questa distinzione assume un rilievo decisivo: l’AI non può essere qualificata come “fonte di prova”, ma esclusivamente come strumento di supporto all’analisi, la cui affidabilità dipende dal metodo adottato e dal controllo umano esercitato.
Vuoi rimanere aggiornato sulle ultime tendenze e tecnologie nel campo della digital forensics ?
Iscriviti alla nostra newsletter e ricevi informazioni esclusive, aggiornamenti sui nostri servizi e contenuti utili per il tuo lavoro.
Non perdere l’opportunità di essere sempre al passo con le ultime novità nel settore. Iscriviti ora e non perdere neanche una notizia!
Etica dell’AI e funzione di garanzia del metodo forense
Nella prospettiva delle scienze forensi, l’etica non rappresenta un insieme di prescrizioni estrinseche, ma una dimensione intrinseca del metodo. L’uso dell’AI in DFIR implica il trattamento di dati altamente sensibili e l’interferenza potenziale con diritti fondamentali quali la riservatezza, la dignità della persona e il diritto di difesa.
Un impiego non governato dell’AI produce un duplice effetto distorsivo: da un lato, compromette la legittimità dell’attività investigativa; dall’altro, mina la credibilità scientifica dell’accertamento tecnico.
Ne consegue che l’etica dell’AI in Digital Forensics deve essere intesa come etica della responsabilità metodologica, orientata a preservare l’affidabilità della ricostruzione fattuale.
Trattamento dei dati personali e principio di pertinenzialità
Il GDPR impone che ogni trattamento di dati personali avvenga secondo i principi di liceità, proporzionalità e minimizzazione. In ambito DFIR, tali principi assumono una valenza metodologica ulteriore: essi coincidono con il requisito di pertinenzialità dell’analisi forense.
L’AI, per sua natura, favorisce approcci estensivi e massivi. Tuttavia, la possibilità tecnica di analizzare grandi quantità di dati non equivale alla legittimità scientifica o giuridica di farlo.
Per lo studente e il professionista della Digital Forensics, ciò implica comprendere che la selezione del perimetro dei dati da sottoporre all’AI costituisce una scelta metodologica primaria, non un dettaglio operativo.
Bias algoritmico e rischio di errore sistemico
Il bias algoritmico rappresenta uno dei principali fattori di rischio nell’uso dell’AI in contesto forense. Dataset di addestramento incompleti o sbilanciati possono generare risultati sistematicamente distorti, producendo falsi positivi o, più insidiosamente, falsi negativi.
Dal punto di vista epistemologico, il bias non è un semplice errore tecnico, ma un errore strutturale del processo di conoscenza, in grado di orientare in modo scorretto l’interpretazione della realtà investigata.
In un’ottica didattica, è essenziale che lo studente comprenda come l’output dell’AI debba essere sottoposto a verifica critica e non possa mai essere assunto come dato auto-evidente.
Trasparenza, spiegabilità e controllabilità del processo analitico
Molti sistemi di AI operano secondo logiche opache, difficilmente ricostruibili ex post. In ambito forense, tale opacità entra in tensione con le esigenze di verificabilità e confutazione che caratterizzano il procedimento giudiziario.
La trasparenza, in questo contesto, non coincide con la piena intelligibilità matematica del modello, ma con la possibilità di ricostruire il processo di utilizzo dello strumento: quale AI è stata impiegata, con quale finalità, su quali dati e con quali limiti.
Questa ricostruibilità costituisce una condizione necessaria affinché l’analisi assistita da AI possa essere sottoposta a valutazione critica in sede accademica e processuale.
Il quadro normativo europeo e italiano come cornice metodologica
Il Regolamento (UE) 2024/1689 (AI Act) introduce un approccio basato sul rischio, ponendo al centro la tutela dei diritti fondamentali e la governance dei sistemi di AI ad alto impatto.
Sebbene non concepito specificamente per la Digital Forensics, l’AI Act fornisce una cornice concettuale rilevante per l’attività forense, imponendo trasparenza, responsabilità e controllo umano.
Nel contesto nazionale, la Legge 23 settembre 2025, n. 132 rafforza tale impostazione, ribadendo un approccio antropocentrico all’AI e valorizzando la responsabilità dell’operatore umano.
Per il mondo universitario e professionale, ciò implica che l’uso dell’AI in DFIR debba essere accompagnato da competenze tecniche, consapevolezza giuridica e formalizzazione delle procedure
Verso una metodologia forense dell’AI
Alla luce delle considerazioni precedenti, l’uso dell’AI in Digital Forensics non può essere lasciato alla discrezionalità tecnica del singolo operatore, ma deve essere ricondotto a una metodologia forense strutturata.
In tale metodologia, l’AI può legittimamente intervenire nelle fasi di supporto all’analisi — come il triage, l’indicizzazione o l’individuazione di pattern — ma resta subordinata al giudizio umano.
Ne deriva un modello operativo in cui:
-
lo scopo dell’uso dell’AI è definito ex ante;
-
il perimetro dei dati è delimitato in modo motivato;
-
gli strumenti e le versioni sono tracciabili;
-
l’output AI è distinto dall’artefatto originario;
-
la validazione finale è sempre umana;
-
i limiti dell’analisi sono esplicitamente dichiarati.
Questo insieme di requisiti costituisce, di fatto, una linea guida operativa per periti, CTU e CTP, coerente con i principi della prova digitale e con il quadro normativo vigente.
AI e valore probatorio: una distinzione concettuale imprescindibile
Dal punto di vista tecnico-giuridico, l’output dell’AI non può essere qualificato come prova in senso proprio. La prova digitale risiede nell’artefatto originario e nella possibilità di dimostrare la correttezza del processo di acquisizione e analisi.
L’AI fornisce indicazioni e supporti interpretativi, ma la valutazione finale resta umana e responsabile. Confondere l’efficienza algoritmica con l’attendibilità probatoria rappresenta uno degli errori più rilevanti nel dibattito contemporaneo sulla prova digitale.
Conclusioni
L’Intelligenza Artificiale costituisce una risorsa strategica per la Digital Forensics, ma il suo impiego richiede un approccio scientificamente rigoroso e giuridicamente consapevole.
Il quadro normativo europeo e italiano non impone un rifiuto dell’AI, bensì ne esige una governance metodologica, fondata su controllo umano, trasparenza e responsabilità.
In conclusione, l’AI non sostituisce l’analista forense: ne amplifica le capacità, ma non ne assorbe la funzione valutativa.
La qualità della prova digitale, anche nell’era degli algoritmi, continua a dipendere dal metodo, dalla competenza e dal rigore epistemologico dell’operatore umano.
✒️ Nota sull’autore
Domenico Moretta è criminalista forense, consulente tecnico specializzato in digital forensics, audio forense e trascrizioni giuridiche. Esperto in Diritto della Società Digitale. Autore di volumi divulgativi e professionali, affianca all’attività peritale un percorso di formazione universitaria in diritto della società digitale.
Con il progetto www.acquisizioneprovedigitali.it, promuove una cultura integrata tra scienze forensi e tutela dei diritti nell’ambiente digitale.
*Nota di trasparenza*: parte di questo contenuto è stato redatto con il supporto di strumenti di Intelligenza Artificiale, secondo quanto previsto dal Regolamento UE 2022/2065 (AI Act). Il contenuto è stato supervisionato e approvato da un professionista forense.