Riassunto
La Legge n. 132 del 23 settembre 2025 segna l’ingresso ufficiale dell’intelligenza artificiale nel diritto italiano.
Non è solo una legge-delega: contiene norme già operative e introduce il principio del doppio binario — etico-giuridico e tecnico-attuativo — fondato sulla centralità della persona umana.
Dal perito forense al giurista digitale, tutti i professionisti sono ora chiamati a garantire trasparenza, tracciabilità e responsabilità nell’uso dei sistemi IA.
Un’analisi completa dell’impianto normativo e dei riflessi pratici per le professioni forensi e digitali.
L’Intelligenza Artificiale entra nel diritto italiano: la Legge 132/2025 tra norme già operative e deleghe per il futuro
di Domenico Moretta – Criminalista, Esperto in Digital Forensics
Un passaggio storico per il diritto digitale
Con la pubblicazione in Gazzetta Ufficiale n. 223 del 25 settembre 2025, è entrata in vigore (dal 10 ottobre) la Legge 23 settembre 2025, n. 132, recante «Disposizioni e deleghe al Governo in materia di intelligenza artificiale».
È il primo provvedimento organico con cui l’Italia recepisce i principi del Regolamento (UE) 2024/1689 – AI Act, inserendo nel proprio ordinamento regole, responsabilità e garanzie per lo sviluppo e l’uso dell’intelligenza artificiale.
La legge 132/2025 segna un cambio di paradigma: l’IA entra formalmente nel diritto positivo, ma con una prospettiva antropocentrica e garantista.
Non si limita a disciplinare la tecnologia — disciplina il rapporto tra tecnologia e persona, ponendo l’essere umano al centro del sistema.
Una legge a doppio binario: principi già operativi e deleghe tecniche
La struttura della legge riflette un modello a doppio binario:
-
un binario etico-giuridico, immediatamente operativo, che sancisce i principi fondamentali — dignità umana, proporzionalità, trasparenza, non discriminazione, responsabilità e centralità della persona;
-
un binario tecnico-attuativo, affidato ai decreti legislativi che nei prossimi mesi dovranno definire modalità, certificazioni, audit, sanzioni e responsabilità oggettive.
Questo approccio consente al legislatore di fissare subito le coordinate valoriali — garantendo la tutela dei diritti fondamentali — e di aggiornare poi gli strumenti tecnici in modo dinamico, seguendo l’evoluzione della tecnologia.
In sostanza, prima il principio, poi l’algoritmo: un’impostazione coerente con la tradizione giuridica europea e con l’idea che l’IA debba restare “a misura d’uomo”.
I principi cardine
La legge riconosce esplicitamente la centralità della persona umana e la funzione “strumentale” dell’intelligenza artificiale.
Tra i principi generali, immediatamente vincolanti:
-
Trasparenza e spiegabilità dei processi algoritmici;
-
Proporzionalità tra automazione e rischio;
-
Non discriminazione nei dataset e nei modelli;
-
Responsabilità umana: l’IA non può sostituire il giudizio professionale.
Questo impianto antropocentrico è il cuore del primo binario: un diritto che non cede alla tecnica, ma la orienta.
Vuoi rimanere aggiornato sulle ultime tendenze e tecnologie nel campo della digital forensics ?
Iscriviti alla nostra newsletter e ricevi informazioni esclusive, aggiornamenti sui nostri servizi e contenuti utili per il tuo lavoro.
Non perdere l’opportunità di essere sempre al passo con le ultime novità nel settore. Iscriviti ora e non perdere neanche una notizia!
Responsabilità professionale e obblighi immediati
Per avvocati, consulenti e periti, la legge introduce regole già operative:
-
obbligo di informare il cliente sull’uso di strumenti IA;
-
obbligo di documentare e conservare i processi tecnici (log, hash, dataset);
-
principio di non delegabilità del giudizio umano.
Nel binario antropocentrico, il professionista rimane titolare di ogni decisione: l’IA può coadiuvare, ma mai sostituire.
Nel binario tecnico, invece, i futuri decreti definiranno criteri di certificazione, requisiti di affidabilità e standard di audit.
Impatti per la digital forensics e l’audio forense
Nel contesto forense, la legge assume rilevanza immediata:
-
Trascrizioni e analisi vocali automatizzate: utilizzabili solo come supporto, con validazione umana e controllo metodologico.
-
Deepfake e manipolazioni: previste nuove aggravanti penali per diffusione di contenuti falsificati con IA.
-
Catena di custodia digitale: diventa necessario conservare metadati e tracce del processo IA per garantire la verificabilità probatoria.
-
Audit e certificazioni: i futuri decreti specificheranno le modalità di certificazione dei sistemi IA impiegati in ambito giudiziario.
Governance e vigilanza
La governance del sistema è affidata a tre poli principali:
-
AgID – promozione e standardizzazione dell’IA etica e interoperabile;
-
ACN – vigilanza sulla sicurezza e certificazione dei sistemi;
-
un futuro Comitato Nazionale per l’IA, con funzioni consultive e di monitoraggio.
Questa architettura istituzionale rappresenta il versante tecnico-amministrativo del secondo binario, complementare alla dimensione etica e giuridica.
Le nuove norme penali
Già operative le fattispecie che puniscono:
-
la diffusione di immagini, video o voci manipolate da IA, lesive della reputazione o dell’identità;
-
l’uso fraudolento o ingannevole dell’IA in contesti economici, informatici o probatori;
-
la responsabilità estesa a sviluppatori e gestori di sistemi IA dannosi.
Un apparato repressivo che riflette la logica del doppio binario: tutela dei diritti oggi, tecniche di controllo domani.
Prove digitali e valore giudiziario
Nel processo penale e civile, i risultati ottenuti tramite IA potranno essere utilizzati solo se:
-
riproducibili e tracciabili;
-
corredati da documentazione tecnica;
-
validati da un operatore umano indipendente.
Questo principio realizza la sintesi tra i due binari:
il giudizio umano resta insostituibile, ma si apre alla collaborazione controllata con l’algoritmo.
Prospettive e criticità
La Legge 132/2025 è un compromesso maturo tra innovazione e garanzie.
La sua efficacia dipenderà da:
-
decreti attuativi chiari e coordinati;
-
formazione interdisciplinare di giuristi e tecnici;
-
un sistema di audit che renda gli algoritmi verificabili.
Il rischio è che il binario tecnico resti indietro rispetto alla rapidità dell’innovazione, ma la scelta di fondare la legge su un impianto antropocentrico stabile riduce questo pericolo.
Conclusione – Il doppio binario come garanzia
La Legge 132/2025 non è una legge sulla tecnologia, ma una legge sull’uomo nell’era della tecnologia.
Il suo “doppio binario” — principi oggi, tecnica domani — è la garanzia che l’IA resti uno strumento e non un soggetto del diritto.
Per chi opera nel campo forense, questo significa:
-
riaffermare il ruolo centrale del metodo umano;
-
adottare da subito procedure di tracciabilità e validazione;
-
accogliere l’innovazione senza rinunciare alla responsabilità personale.
L’IA potenzia la scienza forense solo se la scienza forense rimane profondamente umana.
✒️ Nota sull’autore
Domenico Moretta è criminalista forense, consulente tecnico specializzato in digital forensics, audio forense e trascrizioni giuridiche. Esperto in Diritto della Società Digitale. Autore di volumi divulgativi e professionali, affianca all’attività peritale un percorso di formazione universitaria in diritto della società digitale.
Con il progetto www.acquisizioneprovedigitali.it, promuove una cultura integrata tra scienze forensi e tutela dei diritti nell’ambiente digitale.
*Nota di trasparenza*: parte di questo contenuto è stato redatto con il supporto di strumenti di Intelligenza Artificiale, secondo quanto previsto dal Regolamento UE 2022/2065 (AI Act). Il contenuto è stato supervisionato e approvato da un professionista forense.