I.A. e giustizia: settore ad “alto impatto”

14.02.2026

A cura di Avv. Aurora Di Pietro

La Legge n. 132 del 2025 rappresenta il primo intervento organico del Legislatore italiano volto a disciplinare l'utilizzo dell'intelligenza artificiale nel settore giustizia e si pone in un rapporto di piena attuazione e coordinamento con il Regolamento UE 2024/1689 (AI Act).

Il dispositivo normativo, seppur limitandosi a delineare i principi generali, gli obblighi di trasparenza e le deleghe al Governo, assume rilievo dirimente per il contesto in cui si inserisce e cioè quello in cui l'innovazione dell'intelligenza artificiale incontra i principi fondamentali dell'ordinamento giuridico che, improntati in una visione antropocentrica, prescrivono la personalità della giurisdizione.

Il requisito essenziale del rapporto "intelligenza artificiale e giustizia" è individuabile nel principio dello "human oversight" secondo cui il Giudice deve rimanere il protagonista del processo decisionale effettuando un controllo effettivo e sostanziale dello stesso.

L'I.A. deve essere concepita come strumento di supporto cognitivo e organizzativo della macchina della giustizia: ne consegue l'inammissibilità di qualsiasi forma di decisione automatizzata che si porrebbe in insanabile contrasto con i principi Costituzionali di cui agli articoli 24, 25, 101 e 111 Cost. i quali esigono la personalità della funzione giurisdizionale, il diritto di difesa e la motivazione del provvedimento.

In tale prospettiva, il Legislatore italiano evidenzia l'assoluta incompatibilità del nostro processo con i c.d. black box ovvero i modelli opachi, sistemi in cui il risultato finale deriva da un'elaborazione complessa dei dati che non permette di ricostruire il nesso logico tra input e output

L'uso di tali modelli contrasterebbe non solo con il principio di motivazione dei provvedimenti giurisdizionali, ma anche con il principio di non discriminazione, in quanto impedirebbe di verificare l'eventuale incidenza di fattori distorsivi o discriminatori nel caso specifico.

Un esempio applicativo di tali modelli è rappresentato dal software COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) utilizzato negli Stati Uniti d'America dai Tribunali per valutare il rischio di recidiva di alcuni soggetti. 

Si tratta di un algoritmo di risk assessment che, sulla base dei dati personali e dei precedenti, attribuisce al soggetto un punteggio di rischio successivamente impiegato dalle Corti per la quantificazione della pena o l'applicazione di libertà vigilata e misure alternative. Ebbene, un'inchiesta del 2016 ha evidenziato come tale meccanismo fosse idoneo a produrre discriminazioni sistemiche, influenzando significativamente, e molto spesso negativamente, le decisioni del Giudice e comprimendo il diritto di difesa.

È evidente come un tale strumento sia insindacabilmente contrastante con il nostro concetto di diritto e, non per caso, la Legge 132/2025 ne esclude l'applicabilità.

Ci si può, allora, interrogare su come l'I.A. possa aiutare gli operatori del diritto nel complesso meccanismo dei procedimenti giudiziali e stragiudiziali.

La risposta è nella stessa Legge 132/2025 che individua gli ambiti consentiti per l'utilizzo dell'intelligenza artificiale.

L'art. 3 autorizza la "ricerca, la sperimentazione, lo sviluppo, l'adozione, l'applicazione e l'utilizzo" dei sistemi di IA per finalità generali in rispetto "dei diritti fondamentali e delle libertà previste dalla Costituzione, del diritto dell'Unione europea e dei principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità": pertanto è legittimo pensare all'intelligenza artificiale applicata al diritto come strumento di supporto nelle attività cognitive di ricerca giurisprudenziale, di classificazione documentale e di generazione di bozze, di supporto alle attività amministrative o organizzative purché siano processi che non incidano sui diritti delle parti, siano trasparenti e assoggettati alla supervisione umana.

Specularmente, la L. 132/2025 delinea le applicazioni assolutamente vietate: i sistemi di intelligenza artificiali non possono emettere provvedimenti, adottare misure limitative della libertà personale degli individui o determinare sanzioni in quanto è essenziale rispettare i cardini della centralità della persona, il controllo umano effettivo, la trasparenza dei processi decisionali e la tutela dei diritti fondamentali.

La Legge chiarisce, inoltre, la responsabilità dei giuristi i quali sono tenuti ad utilizzare i sistemi di I.A. esclusivamente per l'esercizio di attività strumentali e di supporto dell'attività professionale, con prevalenza del lavoro intellettuale oggetto della prestazione d'opera.

Questo intervento normativo rappresenta un punto di partenza per una giustizia aumentata dall'intelligenza artificiale in cui tecnologia e diritti fondamentali possono convivere armonicamente.