1. Introduzione
Il biennio che abbiamo dinnanzi è contraddistinto da diversi snodi temporali che si qualificano sin da ora per il carico di conseguenze trasformative, di incertezze e di complessità inedite, di straordinarie opportunità di miglioramento. Ciò è vero per molte ragioni ma di certo una delle più salienti è quella che riguarda la ineludibile ed ostensibile accelerata espansione delle tecniche e delle applicazioni dell’intelligenza artificiale. Quale direzione prenderà il cambiamento – se in un senso costruttivo o deteriore rispetto alla tutela dei diritti e delle libertà che insistono sulle relazioni economiche e sociali è largamente conseguenza delle scelte che saranno fatte in materia di attuazione della normativa europea, delle forme di normazione che saranno approntate dentro al perimetro che la normativa europea, e dalle competenze che saremo in grado di costruire. Le tre questioni, attuazione, normazione, formazione, sono in verità processi essi stessi di politica pubblica che quindi risentono di atti di indirizzo, di volontà e capacità di continuità nell’agire e nel monitorare, oltre che una necessaria comune grammatica per potere discutere di rischi opportunità e garanzie. Soprattutto, questo è l’argomento che nelle pagine seguenti si intende sviluppare seguendo una logica diagnostica prima e prospettica a seguire, appare dirimente la creazione di capitale umano e di capitale organizzativo che nel plesso del sistema giustizia sia in grado di mettere al centro l’obiettivo di assicurare l’apprendimento.
Se non sono mancate nell’ultimo biennio le riflessioni in materia di intelligenza artificiale e dell’impatto che questa ha e avrà sul sistema giustizia – che, lo si ricorda, il Regolamento europeo AI Act 1689 classifica come settore ad alto rischio di impatto sui diritti fondamentali – molto agli albori resta la analisi delle modalità con le quali l’organizzazione delle funzioni e delle micro funzioni che vengono adempiute nel contesto dei riti giudiziari e degli spazi giurisdizionali si dovrà cimentare con la inedita sfida derivata dall’utilizzo di ciò che, a tutti gli effetti, è uno strumento capace di una forte eteronomia. In altri termini, l’intelligenza artificiale nelle sue forme interagisce con le forme dell’agire organizzativo non solo sul piano del processo – ossia delle sequenze di funzioni con si “fanno le cose” – ma anche sul piano del risultato e della sua intrinseca qualità normativa e performativa. Per fare quale esempio, è evidente che un testo costruito con l’ausilio di una intelligenza artificiale generativa, pur sotto lo stretto controllo umano e lasciando a questo l’ultimo miglio da compiere nella validazione e nella messa in azione – da testo a azione -, resta un testo la cui giustificabilità e la conseguente accettabilità devono poggiare su ragioni che ben esplicano se non la ratio processandi dei dati dell’IA, di certo la ratio d’uso del risultato della medesima nella trama della redazione del suddetto testo. Se poi si volesse cambiare di piano di impatto e di contesto di uso si dovrebbe ricordare che una interazione con una o un cittadino fatta attraverso una chat bot dedicata – e quindi costruita con una intelligenza artificiale generativa – dovrà, per essere accettabile e generare affidamento fiduciario essere accompagnata da una policy che ne spieghi la sua non aleatorietà, la tua affidabilità, ma soprattutto la sua funzionalità integrata – il che significa che ne viene spiegata la integrazione in un contesto capace di fornire quelle informazioni aggiuntive che non dovessero essere state messe a disposizione dalla intelligenza artificiale nella sua interazione con la persona attraverso le domande.
Si tratta di esempi semplici, ma non scevri di conseguenze particolarmente onerose sia sul piano delle risorse sia sul piano delle scelte di policy se li situa per l’appunto nel settore di riferimento, quello cioè nel quale la effettività dei diritti processuali e dei diritti che gravitano nell’universo di interazione fra cittadino e istituzioni pubbliche – fra qui la tutela della privacy, il diritto all’accesso all’informazione, l’obbligo di buon funzionamento della pubblica amministrazione che si connette in via lineare con il diritto ad una amministrazione imparziale terza e competente, sino ai diritti attinenti alla tutela delle fasce vulnerabili e quindi i diritti di ordine sociale.
Le pagine che seguono intendono affrontare tale questione dalla prospettiva dell’agire giudiziario ed amministrativo nell’era dell’IA partendo da una disamina della questione organizzativa alla luce delle Raccomandazioni sull'uso dell'intelligenza artificiale nell'amministrazione della giustizia adottate dal Consiglio Superiore della Magistratura con delibera dell’8 di ottobre 2025.
2. Il quadro normativo fra hard e soft law
Lo sforzo normativo che abbiamo osservato a livello transnazionale in materia di intelligenza artificiale va valutato e compreso nel contesto del combinato disposto di condizioni di crescente competizione globale non solo fra macrosistemi regionali – si intenda includere in ciò anche l’emergere di iniziative nel continente Africano - e di evoluzione per salti quantici (invece che prevedibili e lineari, estrapolabili dallo stato della conoscenza passata) della tecnologia e delle scienze matematiche applicate al dato. In tale contesto l’adozione del Regolamento europeo, il cosiddetto AI Act (Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, che stabilisce regole armonizzate sull'intelligenza artificiale), rappresenta una risposta alla duplice sfida, quella di evitare forti asimmetrie fra gli Stati Membri e quella di declinare sviluppo, utilizzo e diffusione di strumenti e tecniche di IA nel rispetto inderogabile dei valori fondativi dell’UE e dei diritti fondamentali espressi e radicati nel sistema valoriale della Carta dei diritti e della Convenzione europea per i diritti dell’uomo e per le libertà fondamentali. Nel settore della giustizia la questione del rischio di asimmetrie e di difformi comportamenti fra Stati Membri è particolarmente importante. Se, infatti, si pensa all’aumento che registriamo, dati alla mano, dei procedimenti crossborder e dei procedimenti che interessano settori di cooperazione giudiziaria, sia civile e commerciale (dove l’uso dell’IA negli spazi che il Regolamento autorizza e con i vincoli che il Regolamento afferma) sia penale (dove la questione certamente prioritaria che attiene alla creazione della prova, questo aspetto lungi dall’esaurire l’ampio spettro di questioni che l’incontro fra giustizia penale e tecnologie dell’IA generano e che sono come è noto alla attenzione sia del Consiglio d’Europa, sia della Commissione Europea, sia dei governi nazionali), si comprende immediatamente come il tema della effettività dell’eguale trattamento resta cruciale per la effettività delle tutele del giusto processo.
Rispetto alla scelta regolamentare le altre istituzioni che intervengono, per le rispettive prerogative, nello spazio di possibilità d’azione e di decisione aperto dalla vertiginosa crescita ed inarrestabile espansione delle tecniche di IA, l’elaborazione e l’adozione di strumenti di soft law caratterizzano il vasto panorama internazionale che vede dal 2018 in poi la CEPEJ – Commissione europea per l’efficienza dei sistemi giudiziari attiva nel contesto del Consiglio d’Europa con funzioni di carattere consultivo, orientativo, cognitivo, e valutativo – il Consiglio d’Europa stesso – con le sue voci interne partecipi dell’articolato settore di presidio della rule of law e della democrazia – e la Commissione europea sia prima sia – e soprattutto – dopo l’adozione del Regolamento europeo AI Act – incidere su quella che a tutti gli effetti è la arena degli attori economici e istituzionali nella quale l’IA rappresenta non solo uno strumento ma anche un potentissimo meccanismi di ridefinizione degli stake di potere e di gioco.
La ridefinizione delle partite in gioco ci interessa particolarmente poiché se vi è di certo un nesso che intercorre fra IA e dimensione sociopolitica del sistema giustizia questa è da identificarsi nella dimensione dell’esercizio della scelta, nell’esercizio di una auctoritas che cambia in modo qualitativo la realtà delle cose. Il dispositivo del giudice – per esemplificare il ragionamento – interviene sulla realtà inserendosi in una catena di carattere causale ed intenzionale orientata a modificare lo status quo: tanto è vero che dopo il decreto di una autorità giudiziaria vi saranno azioni dovute, obbligatorie, vietate, non dovute, e più in generale la relazione fra due parti – portatrici di diritti e situate in una determinata situazione di azione, di vita – sarà modificata. Richiamare questo non è inutile quando si parla di IA poiché la regolazione e la normazione – anche quella non cogente sul piano della esigibilità giuridica – incidono sul modo con cui si legittima l’esercizio di un potere di decisione che con l’IA viene ad essere non tanto banalmente aumentato quanto certamente trasformato. Poiché attiene alla istituzione la responsabilità di assicurare la tutela dei diritti e la responsabilità di rendere conto della effettività del servizio reso alla collettività – in ottemperanza sia ai principi fondativi del diritto euro-comune sia dei principi della nostra costituzione – è evidente che l’esercizio della scelta è il tema reale, centrale, fondamentale di cui occorre occuparsi quando ci si occupa di IA.
Se poi si considera che il settore giustizia partecipa della mise en oeuvre del principio di buon funzionamento della pubblica amministrazione e delle istituzioni nella loro situazione ordinamentale di interfaccia fra principi demo-costituzionali e società, allora è evidente che la questione della scelta – così come la si è posta – attiene non solo al merito decisionale in materia giuridico-giurisdizionale, ma riguarda anche la questione organizzativa, quella comunicativa, quella gestionale e contabile, insomma riguarda tutta la filiera di ciò che propriamente si chiama sistema delle accountabilities – dimensioni del rendere conto delle decisioni prese quando tali decisioni impattano sulla vita di altri – presenti e futuri.
Ecco perché l’intelligenza artificiale applicata al settore dell’azione pubblica nel contesto della produzione, diffusione, valutazione e miglioramento dei servizi pubblici e dei beni collettivi, va intesa come un insieme di dispositivi di carattere tecnologici tecnico e matematico la cui regolazione va distinta per le fasi di sviluppo, utilizzo e monitoraggio e per i livelli di conoscenza fattuale, di architettura e di agency che esso implica. Nel settore dell’azione giuridica e giudiziaria ad oggi le promesse della giustizia predittiva si sono riverberate sia nella espansione delle cosiddette legal tech, sia nell’aumento della attenzione degli attori internazionali per la elaborazione di standard di accountability e responsiveness – di sviluppo ed uso -, sia nella sperimentazioni in taluni ordinamenti di strumenti di aiuto alla decisione del giudice, di elaborazione in via preliminare del potenziale di costo/beneficio di un contenzioso e della sua soluzione giurisdizionale.
In realtà nel settore della giustizia l’utilizzo di questo insieme di strumenti ad alta intensità tecnologica e articolati sulla applicazione della scienza matematica e della scienza informatica, è in essere solo in alcuni paesi europei, anche se l’incontro fra il diritto e l’intelligenza artificiale va inteso in senso ampio, poiché già nella distribuzione automatizzata dei casi, nella analisi di banche dati giurisprudenziali – anche se non realizzata attraverso la traduzione del linguaggio naturale in una rappresentazione digitale – e nella gestione ponderata dei carichi di lavoro e dei flussi, lo strumento della automazione ha fatto la sua entrata nella giustizia ormai da tempo.
Visto sul piano della qualità della giustizia la promessa e la aspettativa legata alla applicazione di strumenti di intelligenza artificiale vanno nella direzione di
a) Potenziale di riduzione del contenzioso attraverso la prevenzione – via deflattiva privatistica (smart contract), via deflattiva processuale (ADR).
b) Riduzione dei margini di errore nella valutazione preventiva del rischio di soccombenza – target di impatto: law firm, professioni ordinistiche
c) Riduzione dei tempi attraverso la trattazione in via automatizzata di quanto seriale e standardizzabile nella sopravvenienza
d) Riduzione dei margini di differenziazione distrettuale e circondariale per tipologie di risposta a simili tipologie di contenzioso.
La regolazione etica e giuridica degli aspetti sovra menzionati deve tenere conto degli snodi organizzativi entro cui domanda ed offerta di giustizia si incontrano. Quattro appaiono le dimensioni funzionali che necessitano di essere poste alla attenzione della norma etica e giuridica in questo contesto: conoscenza, rito del processo, status dell’organo terzo dirimente le controversie, dati personali.
I principi che vanno richiamati in tale senso sono:
a) Responsabilità professionale e trasparenza della produzione della conoscenza
b) Applicazione delle garanzie processuali di difesa
c) Autonomia della giurisdizione e indipendenza del giudice
d) Privacy e sicurezza dei dati
Essi si declinano in norme etiche e in norme giuridiche.
In prima battuta sul piano etico un codice deontologico che assicuri la responsabilità professionale degli sviluppatori e di coloro che intervengono nel processo di integrazione e applicazione dei dispositivi di automazione appare necessario e in linea con le forme di regolazione delle expertise peritali e di consulenza di cui ci si avvale in via endoprocedimentale.
Ancora la estensione delle garanzie processuali massime – in tal senso il caso ordinamentale italiano appare in una prospettiva comparata di sicura ispirazione – per i riti nei quali le parti possono avvalersi – con riconoscimento nel processo – di strumenti di giustizia predittiva deve essere assicurata con il massimo grado di tutela (costituzionale).
La autonomia del giudice a fronte della disponibilità di conoscenza induttiva derivata dalla analisi di banche dati giurisprudenziali va assicurata sia con norme che obblighino le giurisdizioni supreme a un set di standard comuni per il trattamento di tale conoscenza da parte delle giurisdizioni ordinarie di primo e secondo grado, sia con norme che integrino nella argomentazione del giudice la esplicitazione della fonte da cui tale conoscenza viene desunta. Sul piano giuridico ordinamentale dovrebbero essere previste delle unità specializzate a livello di giurisdizioni di secondo grado – dove il giudizio di fatto trova la sua sintesi – per la valutazione dei dispositivi di analisi delle banche dati.
Infine, la qualità dei dati e la loro tutela va prevista sul piano giuridico. Sub condizione di anonimato del giudice, le banche dati devono rispondere a sistemi di regolazione pubblica responsabili della sicurezza. In tal senso andrebbe previsto in via legislativa la disposizione nei ministeri di uffici preposti allo sviluppo reti e politiche di mantenimento della sicurezza. Le garanzie di privacy rispondono alle norme sovranazionali in materia (GRDP).
3. Perché le Raccomandazioni del Consiglio superiore della magistratura necessitano di una strategia integrata che metta al centro tutte le accountabilities?
Le Raccomandazioni adottate con delibera l’otto di ottobre del 2025 dal Consiglio superiore della magistratura entrano nella sopra descritta complessa arena con uno strumento di soft law che si incunea fra Regolamento europeo e normativa primaria nazionale, a che esse tengono conto della Legge del 23 settembre 2025, n. 132 che per l’Italia costituisce il riferimento normativo cogente nazionale in materia di IA.
Afferma il testo del CSM che: «Rischi significativi riguardano, inoltre, gli output generati dai sistemi di IA che possono contenere errori e distorsioni, quali cd. allucinazioni (generazioni di contenuti non basati sulla realtà oggettiva), o cd. sycophancies (generazioni di contenuti compiacenti)». Il primo elemento di warning è dunque connesso alla questione dell’errore. Continua infatti il Consiglio affermando che «le risposte errate, infatti, possono avere origine: in dati di addestramento insufficienti o errati, non controllati, ovvero non strettamente riferibili ad informazioni tecniche e afferenti il settore specifico in cui esse devono poi essere utilizzate; nelle modalità di funzionamento degli algoritmi che, essendo basati sulla statistica, tendono talvolta anche a "inventare" una risposta solo "probabile" con l'instaurazione di una falsa correlazione tra i dati».
Il riconoscimento della centralità del dato e della sua qualità nell’influenzare in modo ineludibile la qualità dell’IA e quindi la modalità con la quale chi se ne avvale è chiamato ad esercitare l’ultimo miglio di scelta sub condizione di un monitoraggio consapevole e quindi di una effettiva responsabilità rispetto all’"an" e al "come" lo strumento sia stato utilizzato ad adiuvandum delle scelte di esercizio della autoctoritas è conseguenza lineare del ragionamento. Si tratta, si noti, di un ragionamento ha una premessa di ordine tecnico-fattuale. I dati sono il fattore che maggiormente influenza la qualità dell’IA. Pertanto poiché l’elaborazione per tecniche matematiche di carattere statistico risultano caratterizzate da un margine irriducibile a zero di possibile errore allora è chiaro che l’accountability resta nelle mani di chi utilizza l’IA. Di quali errori stiamo parlando? Dentro al meccanismo di costruzione della matrice di “allenamento” dell’algoritmo certamente l’errore è determinato dalla natura non deterministica della tecnica matematica adottata nel processare i dati. Ma l’errore che preme è in verità quello che attiene alla scelta stessa dei dati e della codifica degli stessi, scelta che – questa certamente – resta nelle mani di chi sviluppa l’IA. Dunque, la accountability, così come previsto dal Regolamento europeo, è anche (e diremmo prima facie) nell’alveo degli obblighi di chi sviluppa – i cosiddetti deployer. È così che deve essere intesa la Raccomandazione di un intervento del sistema giustizia rispetto alla creazione di una suite che sia di dominio “giustizia”, ossia un set di strumenti che trovi in un attore istituzionale o, meglio ancora, in un sistema di attori istituzionali – come di fatto la governance del sistema giustizia è configurata – il vero snodo di accountability di carattere istituzionale. Il mercato in questo caso non può dare una risposta poiché se lo facesse ancorché di alta qualità tecnica resterebbe comunque caratterizzata da quella influenza sulle asimmetrie di informazione che sono asimmetrie di conoscenze – delle matrici dei dati e delle tecniche di elaborazione algoritmica – tali da addivenire asimmetrie di potere.
Si torna alla questione di cui sopra. Le Raccomandazioni intendono dare risposte a tale questione (che è quella, lo abbiamo detto, della modalità di assicurare accountability alle decisioni che integrano come strumenti ad adiuvandum, mai ad reductio, dell’IA. Esse, infatti, sono orientate a determinare quale uso possa essere fatto dell'IA da parte dei magistrati italiani, in attesa dell'entrata in vigore delle disposizioni europee previste per agosto 2026; se vi siano attività, nell'ambito della giustizia, che non comportano un rischio significativo di danno e non influenzano materialmente l'esito del processo decisionale, per le quali possa trovare applicazione la deroga prevista dall'art. 6, par. 3, dell'AI Act e quale sia la prospettiva di utilizzo dei sistemi di IA dopo l’agosto del 2026.
Il combinato disposto dell’articolo 6 del Regolamento europeo AI Act con l’articolo 15 comma 2 della legge 132 già offre un perimetro di obblighi e di divieti. Essi, infatti, mettono al centro il controllo e la responsabilità d’uso dell’agente umano il quale nei settori ad alto rischio è tenuto ad assicurare che l'attività svolta: a) sia limitata a compiti procedurali; b) migliori il risultato di un'attività umana già completata; c) rilevi schemi o deviazioni senza sostituire il giudizio umano; d) prepari un'attività valutativa da svolgersi con supervisione umana.
Fin qui il nesso IA-accountability passa attraverso la azione dell’attore individuale. Sarà il giudice ad avvalersi dell’IA nella consapevolezza dei punti sub a, b, e c. Altresì sarà il giudice a non delegare quello che viene in letteratura definita postura epistemica cioè il posizionamento del ragionamento rispetto alla questione su cui sta ragionando e in ultima istanza decidendo mantenendo così una autonomia strutturale dell’esercizio della autoctoritas nelle mani della ratio istituzionale. Non delegando questa all’algoritmo. Si potrebbe affermare che il sistema dei controlli è in essere. Ci sono le norme primarie, ci sono le norme di soft law, ci sono le accountability istituzionali e quelle professionali. A questo punto la posta in gioco passa dal lato della formazione. Seppur su quest’ultima molto si sta dicendo e mai abbastanza in quanto è decisivo il fatto che sia assicurata nel tempo una formazione non teorica ma pratica e policy-oriented tecnologicamente consapevole ma non appiattita sulla questione tecnocratica, resta che manca una dimensione. Si tratta della dimensione organizzativa. Essa non può che essere collegiale, ossia andare al di là della situazione del giudice solo.
4. La dimensione organizzativa: al di là del perimetro dell’uno
Il CSM parla di «zona grigia tra attività propriamente giudiziarie e attività organizzative o accessorie, rispetto alle quali l'utilizzo dell'IA può essere considerato compatibile con l'ordinamento vigente». Si propone di inquadrare la questione facendo riferimento alla letteratura di scienze dei processi complessi ed in particolare al modello IAD (Institutional Analysis and Development Framework: «Il modello IAD comprende l'analisi degli attori, delle norme, dei contesti istituzionali, delle strutture di incentivo, delle regole e altro ancora. Gli scienziati sociali hanno ampiamente adottato il quadro IAD per studiare gli assetti istituzionali e l'emergere e i cambiamenti delle istituzioni nel tempo (…). Il quadro IAD suddivide le situazioni in “arena di azione”, che includono “partecipanti” e “situazioni d'azione”. I “partecipanti” sono influenzati dalle “Variabili Esogene”, prendono decisioni all'interno delle “regole” esistenti e si impegnano in “interazioni”. Sia le Variabili Esogene sia le interazioni dei “partecipanti” producono risultati, che vengono valutati dai “partecipanti”». Adesso proviamo a vedere come il modello permette di inquadrare la situazione di azione del giudice allargandola ad una visione organizzativa, quindi collettiva. La normativa infatti interviene sulle variabili di carattere esogeno. Fissa vincoli ed opportunità – ossia opzioni di azione lecite e non lecite, ne fissa le sanzioni e ne fissa le forme di responsabilità. In altri termini per ogni tipologia di azione che il giudice compie avvalendosi degli strumenti di IA fissa costi e benefici e fissa i costi (le sanzioni) della violazione delle regole. Questo è ciò che funzionalmente fanno le regole rispetto all’azione. Ma non basta. Cosa accade alle variabili endogene? Nelle situazioni in cui quotidianamente si trova ad operare il giudice essere sono esemplificate da una serie di fattori di ordine organizzativo: routine di lavoro, modalità di interazione con le cancellerie, con gli uffici per il processo, con i sistemi informativi, con i responsabili per l’informatica, con i colleghi dell’organo giudicante quando ci si trova in composizione non monocratica, e gli esempi potrebbero essere moltiplicati. Certo, molte delle forme dell’interazione sono organizzate secondo procedura e secondo ordinamento. Ma la variabile organizzativa interviene in modo determinate. Riprova ne sia l’importanza che essa riveste nel perimetro delle attenzioni e della cura che vi si rivolte negli esercizi previsti dalla normativa italiana di organizzazione e di pianificazione. Non solo. È proprio nell’organizzazione e attraverso l’organizzazione, la sua matrice complessa di “chi fa cosa” di “chi sa fare cosa e sa chi sa fare cosa”, nella tessitura della filigrana di quotidiane interazioni di mutuo controllo – si pensi al controllo nelle fasi di formazione del fascicolo ovvero nelle fasi di elaborazione preliminare di una questione di fatto – che “vive” l’organizzazione. Essa non è mai individuale. Certo, esiste la dimensione della capacità organizzativa del singolo magistrato della sua agenda di lavoro. Ma tale agenda si situa ancora una volta dentro a quella situazione di azione che il modello IAD ci permette di vedere in modo trasversale alle singole sedi giudiziarie, ai singoli periodi storici, come qualsiasi modello astratto. Cosa ci permette di vedere?
Se le variabili interne alla situazione di operatività concreta del giudice sono rilevanti, vale la pena capire di che natura solo. Nel modello ne abbiamo di tre tipi. Vi sono le risorse cognitive: le informazioni e le competenze, che non sono mai relative ad un solo attore, ma sono sempre la combinazione delle stesse per i singoli attori presenti, per i loro diversi ruoli. Vi sono poi le legacy, cioè le modalità di agire che si sono consolidate in passato, più o meno remoto. Esse sono nella fattispecie qui considerata le prassi, le routine di lavoro, soprattutto quelle non espresse verbalmente, nelle quali sono naturaliter inserite le modalità di controllo della qualità delle micro-mansioni dei risultati conseguiti ad ogni fase dell’agire quotidiano. Si tratta di una forma silenziosa tacita e capillare di organizzazione de facto che assai di rado trova consolidamento in un ordine di servizio e quand’anche così fosse resterebbe comunque a maglie lasche sul piano dei meccanismi di coordinamento fra una persona e un’altra, fra funzionari fra amministrativi e personale togato, e via di seguito. Infine vi sono le risorse di carattere spaziale ovvero quelle di carattere strutturale che caratterizzano la tempistica dei meccanismi di controllo e di coordinamento – basti pensare alle modalità di agire in un palazzo di giustizia che integra tutte le funzioni della giurisdizione rispetto a quelle che si adottano in un palazzo di giustizia che ne integra solo alcune, come il primo grado ma non l’appello se si tratta di sede distrettuale, oppure il tribunale ma non la procura se si tratta di una sede circondariale, solo per fare degli esempi. In altri e più generali termini il modello IAD ci permette di vedere che la situazione del giudice è una situazione di azione multi-agentica in senso già ordinamentale, processuale e funzionale.
È in questo contesto che entra l’IA. E vi entra come una ratio agentica, ma scevra di quelle caratteristiche deontiche – ossia legate al dover fare e al dover rendere conto del fare – che invece sono proprie degli agenti intenzionali responsabili e diremmo in questo contesto di più: aventi una missione costituzionalmente orientata e istituzionalmente tenuta a rendere conto.
È in quella situazione multi-agentica che occorre pensare modelli di qualità della amministrazione della giustizia che tengano conto della entrata in scena di strumenti che, per quanto tecnici e non intenzionali. Cosa significa tutto questo? Significa che insieme alla suite di IA occorre che siano pensate le forme organizzative delle unità che compongono la vita organizzativa de facto di un ufficio giudiziario. Il giudice non agisce nella solitudine ed è in questo contesto collettivo ed integrato che va pensato il modo per assicurare alert e meccanismi di prevenzione dell’errore legati all’uso – ancora una volta pur strumentale e mai esaustivo della dimensione decisionale ed autoritativa – dell’IA. Non può che essere il sistema CSM – Ministero della Giustizia con tutte le istanze sul territorio partecipi ad operare in tal senso. I modelli di organizzazione che per esempio sono previsti dalla normativa in materia di ufficio per il processo potrebbero essere un primo banco di priva di un menu di modelli in cui le accountabilities sono pensate come catene di controllo collegiale, anche avvalendosi degli strumenti trasversali che coadiuvano la governance degli uffici giudiziari a livello di funzioni direttive – si pensi agli uffici per l’innovazione o agli uffici per il processo trasversali. Cosa dovrebbero fare? Si tratta di immaginare come sia da fare diventare parte della vita quotidiana di lavoro la discussione e la determinazione di come interagire con i prompt della IA generativa, così come sarebbero importanti le linee guida di uso dell’IA a livello di sezioni – essendo l’IA verticale e non generalista più adeguata al tipo di bisogno strumentale che può emergere nel contesto giustizia. Sono solo esempi. Ma una riflessione va fatta e va fatta adesso. Uscendo dall’idea che vi sia un singolo attore dinnanzi all’algoritmo. L’attore c’è. evidentemente. E l’autonomia del giudice resta intonsa intangibile intoccabile. Ma sul piano funzionale operativo di ogni giorno gli uffici sono organizzazioni complesse ed è in quel contesto di azione o più propriamente di quella situazione di azione che l’IA va messa sotto il cappello normante che la piega al servizio di strutture multi agentiche in cui essa svolgerà solo il ruolo quand’anche molto utile di apporto strumentale.
Ristretta selezione di alcuni riferimenti bibliografici
Bell, F, et al. (2022) AI decision-making and the courts: A guide for judges, tribunal members, and court administrators. Australasian Institute of Judicial Administration Incorporated, June 2022.
Bühlmann, M and Kunz, R (2011) Confidence in the judiciary: Comparing the independence and legitimacy of judicial systems. West European Politics 34(2), 317–345.
CEPEJ, (2018) European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment, ES250132_PREMS 005419 GBR 2013 charte ethique CEPEJ WEB A5.pdf
Consiglio Superiore della Magistratura, (2025), Raccomandazioni sull'uso dell'intelligenza artificiale nell'amministrazione della giustizia, Brevi dal plenum - news - CSM
European Commission (2024) Shaping Europe’s digital future—AI act, 6 March 2024.
European Union, (2024) Regolamento UE 2024/1689 del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale L_202401689IT.000101.fmx.xml
Garapon, A. e Lassègue, J. (2018). Justice digitale. Révolution graphique et rupture anthropologique, PUF
Lombardini, I. (2022). Intelligenza artificiale e decisione robotica nella giustizia civile, in R. Tiscini, F. P. Luiso (dir.), Scritti in onore di Bruno Sassani, Pacini Editore, Vol. II, 1839 – 1867.
Morison, J and Mclnerney, T (2024) When should a computer decide? Judicial decision-making in the age of automation, algorithms and generative artificial intelligence. In Turenne, S and Moussa, M (eds), Research Handbook on Judging and the Judiciary: Law and Society Series. Elgar-Routledge.
Piana, D. (2021), Legal Services and Digital Infrastructures. London, Routledge.
Piana, D. Viciconte, G. (2023), La governance pubblica fra il prossimo regolamento UE sull’intelligenza artificiale e il codice dei contratti. Scenari attuativi ed esigenze di controllo a fronte dell’evoluzione dell’IA, Rivista della Corte dei Conti, 4, 30-42.
Resta, A., (2024) Towards a European Large Scale Initiative on AI. CEPS, 11.
Santosuosso, A., G., Sartor (2022). La giustizia predittiva: una visione realistica. In Gabrielli, E. & Dell’Utri, M. (Eds.), La giustizia predittiva. Giur. It., 1760 – 1782.
Sartor, G. (2022). L’intelligenza artificiale e il diritto. Giappichelli.
Socol de la Osa DU, Remolina N. Artificial intelligence at the bench: Legal and ethical challenges of informing—or misinforming—judicial decision-making through generative AI. Data & Policy. 2024.