Riassunto

La Legge n. 132 del 23 settembre 2025 segna l’ingresso ufficiale dell’intelligenza artificiale nel diritto italiano.
Non è solo una legge-delega: contiene norme già operative e introduce il principio del doppio binario — etico-giuridico e tecnico-attuativo — fondato sulla centralità della persona umana.
Dal perito forense al giurista digitale, tutti i professionisti sono ora chiamati a garantire trasparenza, tracciabilità e responsabilità nell’uso dei sistemi IA.
Un’analisi completa dell’impianto normativo e dei riflessi pratici per le professioni forensi e digitali.

L’Intelligenza Artificiale entra nel diritto italiano: la Legge 132/2025 tra norme già operative e deleghe per il futuro

di Domenico Moretta – Criminalista, Esperto in Digital Forensics


Un passaggio storico per il diritto digitale

Con la pubblicazione in Gazzetta Ufficiale n. 223 del 25 settembre 2025, è entrata in vigore (dal 10 ottobre) la Legge 23 settembre 2025, n. 132, recante «Disposizioni e deleghe al Governo in materia di intelligenza artificiale».
È il primo provvedimento organico con cui l’Italia recepisce i principi del Regolamento (UE) 2024/1689 – AI Act, inserendo nel proprio ordinamento regole, responsabilità e garanzie per lo sviluppo e l’uso dell’intelligenza artificiale.

La legge 132/2025 segna un cambio di paradigma: l’IA entra formalmente nel diritto positivo, ma con una prospettiva antropocentrica e garantista.
Non si limita a disciplinare la tecnologia — disciplina il rapporto tra tecnologia e persona, ponendo l’essere umano al centro del sistema.

Una legge a doppio binario: principi già operativi e deleghe tecniche

La struttura della legge riflette un modello a doppio binario:

  • un binario etico-giuridico, immediatamente operativo, che sancisce i principi fondamentali — dignità umana, proporzionalità, trasparenza, non discriminazione, responsabilità e centralità della persona;

  • un binario tecnico-attuativo, affidato ai decreti legislativi che nei prossimi mesi dovranno definire modalità, certificazioni, audit, sanzioni e responsabilità oggettive.

Questo approccio consente al legislatore di fissare subito le coordinate valoriali — garantendo la tutela dei diritti fondamentali — e di aggiornare poi gli strumenti tecnici in modo dinamico, seguendo l’evoluzione della tecnologia.
In sostanza, prima il principio, poi l’algoritmo: un’impostazione coerente con la tradizione giuridica europea e con l’idea che l’IA debba restare “a misura d’uomo”.

I principi cardine

La legge riconosce esplicitamente la centralità della persona umana e la funzione “strumentale” dell’intelligenza artificiale.
Tra i principi generali, immediatamente vincolanti:

  • Trasparenza e spiegabilità dei processi algoritmici;

  • Proporzionalità tra automazione e rischio;

  • Non discriminazione nei dataset e nei modelli;

  • Responsabilità umana: l’IA non può sostituire il giudizio professionale.

Questo impianto antropocentrico è il cuore del primo binario: un diritto che non cede alla tecnica, ma la orienta.

Vuoi rimanere aggiornato sulle ultime tendenze e tecnologie nel campo della digital forensics ?

Iscriviti alla nostra newsletter e ricevi informazioni esclusive, aggiornamenti sui nostri servizi e contenuti utili per il tuo lavoro.

Non perdere l’opportunità di essere sempre al passo con le ultime novità nel settore. Iscriviti ora e non perdere neanche una notizia!

La tua iscrizione non può essere convalidata.
La tua iscrizione è avvenuta correttamente.

Newsletter

Abbonati alla nostra newsletter e resta aggiornato.

Utilizziamo Sendinblue come nostra piattaforma di marketing. Cliccando qui sotto per inviare questo modulo, sei consapevole e accetti che le informazioni che hai fornito verranno trasferite a Sendinblue per il trattamento conformemente alle loro condizioni d'uso

Responsabilità professionale e obblighi immediati

Per avvocati, consulenti e periti, la legge introduce regole già operative:

  • obbligo di informare il cliente sull’uso di strumenti IA;

  • obbligo di documentare e conservare i processi tecnici (log, hash, dataset);

  • principio di non delegabilità del giudizio umano.

Nel binario antropocentrico, il professionista rimane titolare di ogni decisione: l’IA può coadiuvare, ma mai sostituire.
Nel binario tecnico, invece, i futuri decreti definiranno criteri di certificazione, requisiti di affidabilità e standard di audit.

Impatti per la digital forensics e l’audio forense

Nel contesto forense, la legge assume rilevanza immediata:

  • Trascrizioni e analisi vocali automatizzate: utilizzabili solo come supporto, con validazione umana e controllo metodologico.

  • Deepfake e manipolazioni: previste nuove aggravanti penali per diffusione di contenuti falsificati con IA.

  • Catena di custodia digitale: diventa necessario conservare metadati e tracce del processo IA per garantire la verificabilità probatoria.

  • Audit e certificazioni: i futuri decreti specificheranno le modalità di certificazione dei sistemi IA impiegati in ambito giudiziario.

Governance e vigilanza

La governance del sistema è affidata a tre poli principali:

  • AgID – promozione e standardizzazione dell’IA etica e interoperabile;

  • ACN – vigilanza sulla sicurezza e certificazione dei sistemi;

  • un futuro Comitato Nazionale per l’IA, con funzioni consultive e di monitoraggio.

Questa architettura istituzionale rappresenta il versante tecnico-amministrativo del secondo binario, complementare alla dimensione etica e giuridica.

Le nuove norme penali

Già operative le fattispecie che puniscono:

  • la diffusione di immagini, video o voci manipolate da IA, lesive della reputazione o dell’identità;

  • l’uso fraudolento o ingannevole dell’IA in contesti economici, informatici o probatori;

  • la responsabilità estesa a sviluppatori e gestori di sistemi IA dannosi.

Un apparato repressivo che riflette la logica del doppio binario: tutela dei diritti oggi, tecniche di controllo domani.

Prove digitali e valore giudiziario

Nel processo penale e civile, i risultati ottenuti tramite IA potranno essere utilizzati solo se:

  • riproducibili e tracciabili;

  • corredati da documentazione tecnica;

  • validati da un operatore umano indipendente.

Questo principio realizza la sintesi tra i due binari:
il giudizio umano resta insostituibile, ma si apre alla collaborazione controllata con l’algoritmo.

Prospettive e criticità

La Legge 132/2025 è un compromesso maturo tra innovazione e garanzie.
La sua efficacia dipenderà da:

  • decreti attuativi chiari e coordinati;

  • formazione interdisciplinare di giuristi e tecnici;

  • un sistema di audit che renda gli algoritmi verificabili.

Il rischio è che il binario tecnico resti indietro rispetto alla rapidità dell’innovazione, ma la scelta di fondare la legge su un impianto antropocentrico stabile riduce questo pericolo.

Conclusione – Il doppio binario come garanzia

La Legge 132/2025 non è una legge sulla tecnologia, ma una legge sull’uomo nell’era della tecnologia.
Il suo “doppio binario” — principi oggi, tecnica domani — è la garanzia che l’IA resti uno strumento e non un soggetto del diritto.

Per chi opera nel campo forense, questo significa:

  • riaffermare il ruolo centrale del metodo umano;

  • adottare da subito procedure di tracciabilità e validazione;

  • accogliere l’innovazione senza rinunciare alla responsabilità personale.

L’IA potenzia la scienza forense solo se la scienza forense rimane profondamente umana.

✒️ Nota sull’autore

Domenico Moretta è criminalista forense, consulente tecnico specializzato in digital forensics, audio forense e trascrizioni giuridiche. Esperto in Diritto della Società Digitale. Autore di volumi divulgativi e professionali, affianca all’attività peritale un percorso di formazione universitaria in diritto della società digitale.
Con il progetto www.acquisizioneprovedigitali.it, promuove una cultura integrata tra scienze forensi e tutela dei diritti nell’ambiente digitale.

*Nota di trasparenza*: parte di questo contenuto è stato redatto con il supporto di strumenti di Intelligenza Artificiale, secondo quanto previsto dal Regolamento UE 2022/2065 (AI Act). Il contenuto è stato supervisionato e approvato da un professionista forense.