Magistratura democratica
Magistratura e società

Decidere con l’IA. Intelligenze artificiali e naturali nel diritto

di Claudio Castelli
già presidente della Corte di appello di Brescia

Recensione al libro di A. Santosuosso e G. Sartor (Il Mulino, 2024)

Se si cerca un volume che possa aiutare a comprendere il momento di rivoluzione tecnologica che stiamo vivendo, con un focus dedicato alla giustizia dovete assolutamente leggere Decidere con l’IA, edito da Il Mulino. Gli autori, i professori Santosuosso e Sartor, il primo con un passato anche da magistrato, sono capaci di dare un quadro utile e interessante su quale sia lo stato dell’arte delle possibili applicazioni di IA nella giustizia e di quali prospettive si aprano.

Nel libro si naviga tra sistemi predittivi, reti neurali, Large Language Models e prompt, con la capacità di essere chiari anche per i non iniziati, senza mai abbandonare la precisione tecnica. 

L’approccio adottato, che personalmente condivido integralmente, evidenzia le enormi potenzialità che può rappresentare l’IA per la giustizia, imponendo una riflessione sull’organizzazione della giurisdizione, ma anche sulla stessa sostanza del decidere, senza trascurare i pur enormi rischi e problemi etici, pur senza cedere a ripulse e timori. 

L’IA difatti può essere un’occasione straordinaria di ripensamento dell’agire giuridico e del giudicare, per la quale la formazione é il punto chiave sul quale investire, piuttosto che puntare su paure paralizzanti.

La consapevolezza é che l’IA realizza un salto di qualità nelle applicazioni relative alla giustizia, perché prima del suo avvento i supporti tecnologici, anche quelli più avanzati non toccavano il nucleo centrale della giurisdizione, ma si limitavano ad aspetti ausiliari. Nessuno sa ed è in grado di prevedere fino a dove arriverà l’apprendimento automatico delle macchine e la facoltà di sostituire gli esseri umani, ma gli autori, pur sottolineando rischi e problemi attuali, non cedono ai timori dell’ignoto e della perdita di umanità del sistema. Quello che oggi possiamo vedere e prevedere è la capacità predittiva che può avere un sistema che si basa su fattori probabilistici che si ricavano dai casi concreti immessi e ricavati. Un sistema che effettua predizioni automatiche opera sulla base di correlazioni, cioè di relazioni tra dati di output ed esiti possibili. La predizione automatica risponde a una fondamentale esigenza conoscitiva: rivolgersi alla memoria pregressa per formulare ipotesi attendibili per il futuro. I sistemi che forniscono le prestazioni più elevate, ovvero le predizioni più accurate, sono più opachi, cioè meno capaci di giustificare le proprie decisioni. E l’opacità, l’incapacità di un sistema di autogiustificare e quindi di spiegare le proprie scelte, è oggi uno dei problemi fondamentali che dobbiamo affrontare. Del resto come viene detto l’LLM può essere un utile strumento per il giurista (anche nella sua dimensione allucinatoria, cioè di errore, che può fornire utili spunti per idee nuove), ma solo a condizione che il giurista mantenga la sua capacità critica, e svolga il ruolo di attento e costante verificatore rispetto alle indicazioni dell’LLM.

Un sistema automatico di predizioni potrebbe proporre considerazioni autorevoli, ma non vincolanti per il giudice. La decisione rimane e deve rimanere comunque al giudice. 

Il legislatore europeo si è preoccupato di questo ed in particolare dell’attività giudicante, sempre riservandola come prerogativa degli esseri umani, ma prevedendo la possibilità dell’utilizzo di IA per attività amministrative accessorie. L’umano resta sempre al centro, anche se correttamente i professori Santosuosso e Sartor parlano di decisione composita e non di decisione complementare, proprio perché l’IA può contribuire al processo decisionale, può esserne un valido ausilio, ma non è complementare al decisore umano. Vi deve essere un’effettiva capacità da parte dell’uomo di controllare le finalità perseguite dal sistema e gli effetti collaterali che ne derivano. Questo richiede formazione e consapevolezza, ma il risultato può essere un essere umano potenziato ed aumentato. Con questa possibile prospettiva si chiude il libro, stimolando in tal modo non a fuggire dalle applicazioni dei IA (che comunque sono ineluttabili), ma a conoscerle e a governarle anche in un settore sensibile e delicatissimo come la giustizia. Conclusioni che sono in piena sintonia con il Considerando n.61 dell’AI Act: «L’utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana».

23/05/2025
Altri articoli di Claudio Castelli
Se ti piace questo articolo e trovi interessante la nostra rivista, iscriviti alla newsletter per ricevere gli aggiornamenti sulle nuove pubblicazioni.
Prassi, consuetudini e interpretazioni estensive. Contro un nuovo positivismo digitale

All’avvento dell’Intelligenza artificiale non si possono opporre chiusure aprioristiche: piuttosto, occorre prestare attenzione a che i giudici non vengano isolati dentro una sorta di nuovo positivismo giuridico digitale, venendo privati di una visione assiologica e teleologica. E’ anzi l’occasione per scorgere un nuovo orizzonte, che includa il diritto all’interazione umana, da intendersi quale principio guida anche per l’evolvere del diritto costituzionale.

18/12/2025
L’intelligenza artificiale e la tutela dei diritti fondamentali. Giudice uomo o giudice robot?

Intervista a Giovanni Maria Flick, avvocato, professore, già magistrato e Presidente Emerito della Corte Costituzionale, resa al termine della relazione svolta al corso della Scuola Superiore della Magistratura su Il processo e l’intelligenza artificiale, tenutosi a Roma l’1.12.2025

17/12/2025
Giustizia e nuove tecnologie

Sabato 8 novembre 2025, ore 10:00, Fondazione Lelio e Lisli Basso con possibilità di partecipazione online

20/10/2025