Magistratura democratica
Leggi e istituzioni

La collegialità necessaria. Le forme nuove dell’agire organizzativo nella magistratura dell’era dell’IA

di Daniela Piana
professoressa ordinaria di scienza politica nell'Università di Bologna

1. Introduzione

Il biennio che abbiamo dinnanzi è contraddistinto da diversi snodi temporali che si qualificano sin da ora per il carico di conseguenze trasformative, di incertezze e di complessità inedite, di straordinarie opportunità di miglioramento. Ciò è vero per molte ragioni ma di certo una delle più salienti è quella che riguarda la ineludibile ed ostensibile accelerata espansione delle tecniche e delle applicazioni dell’intelligenza artificiale. Quale direzione prenderà il cambiamento – se in un senso costruttivo o deteriore rispetto alla tutela dei diritti e delle libertà che insistono sulle relazioni economiche e sociali è largamente conseguenza delle scelte che saranno fatte in materia di attuazione della normativa europea, delle forme di normazione che saranno approntate dentro al perimetro che la normativa europea, e dalle competenze che saremo in grado di costruire. Le tre questioni, attuazione, normazione, formazione, sono in verità processi essi stessi di politica pubblica che quindi risentono di atti di indirizzo, di volontà e capacità di continuità nell’agire e nel monitorare, oltre che una necessaria comune grammatica per potere discutere di rischi opportunità e garanzie. Soprattutto, questo è l’argomento che nelle pagine seguenti si intende sviluppare seguendo una logica diagnostica prima e prospettica a seguire, appare dirimente la creazione di capitale umano e di capitale organizzativo che nel plesso del sistema giustizia sia in grado di mettere al centro l’obiettivo di assicurare l’apprendimento. 

Se non sono mancate nell’ultimo biennio le riflessioni in materia di intelligenza artificiale e dell’impatto che questa ha e avrà sul sistema giustizia – che, lo si ricorda, il Regolamento europeo AI Act 1689 classifica come settore ad alto rischio di impatto sui diritti fondamentali – molto agli albori resta la analisi delle modalità con le quali l’organizzazione delle funzioni e delle micro funzioni che vengono adempiute nel contesto dei riti giudiziari e degli spazi giurisdizionali si dovrà cimentare con la inedita sfida derivata dall’utilizzo di ciò che, a tutti gli effetti, è uno strumento capace di una forte eteronomia. In altri termini, l’intelligenza artificiale nelle sue forme interagisce con le forme dell’agire organizzativo non solo sul piano del processo – ossia delle sequenze di funzioni con si “fanno le cose” – ma anche sul piano del risultato e della sua intrinseca qualità normativa e performativa. Per fare quale esempio, è evidente che un testo costruito con l’ausilio di una intelligenza artificiale generativa, pur sotto lo stretto controllo umano e lasciando a questo l’ultimo miglio da compiere nella validazione e nella messa in azione – da testo a azione -, resta un testo la cui giustificabilità e la conseguente accettabilità devono poggiare su ragioni che ben esplicano se non la ratio processandi dei dati dell’IA, di certo la ratio d’uso del risultato della medesima nella trama della redazione del suddetto testo. Se poi si volesse cambiare di piano di impatto e di contesto di uso si dovrebbe ricordare che una interazione con una o un cittadino fatta attraverso una chat bot dedicata – e quindi costruita con una intelligenza artificiale generativa – dovrà, per essere accettabile e generare affidamento fiduciario essere accompagnata da una policy che ne spieghi la sua non aleatorietà, la tua affidabilità, ma soprattutto la sua funzionalità integrata – il che significa che ne viene spiegata la integrazione in un contesto capace di fornire quelle informazioni aggiuntive che non dovessero essere state messe a disposizione dalla intelligenza artificiale nella sua interazione con la persona attraverso le domande. 

Si tratta di esempi semplici, ma non scevri di conseguenze particolarmente onerose sia sul piano delle risorse sia sul piano delle scelte di policy se li situa per l’appunto nel settore di riferimento, quello cioè nel quale la effettività dei diritti processuali e dei diritti che gravitano nell’universo di interazione fra cittadino e istituzioni pubbliche – fra qui la tutela della privacy, il diritto all’accesso all’informazione, l’obbligo di buon funzionamento della pubblica amministrazione che si connette in via lineare con il diritto ad una amministrazione imparziale terza e competente, sino ai diritti attinenti alla tutela delle fasce vulnerabili e quindi i diritti di ordine sociale. 

Le pagine che seguono intendono affrontare tale questione dalla prospettiva dell’agire giudiziario ed amministrativo nell’era dell’IA partendo da una disamina della questione organizzativa alla luce delle Raccomandazioni sull'uso dell'intelligenza artificiale nell'amministrazione della giustizia adottate dal Consiglio Superiore della Magistratura con delibera dell’8 di ottobre 2025. 

 

2. Il quadro normativo fra hard e soft law 

Lo sforzo normativo che abbiamo osservato a livello transnazionale in materia di intelligenza artificiale va valutato e compreso nel contesto del combinato disposto di condizioni di crescente competizione globale non solo fra macrosistemi regionali – si intenda includere in ciò anche l’emergere di iniziative nel continente Africano - e di evoluzione per salti quantici (invece che prevedibili e lineari, estrapolabili dallo stato della conoscenza passata) della tecnologia e delle scienze matematiche applicate al dato. In tale contesto l’adozione del Regolamento europeo, il cosiddetto AI Act (Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, che stabilisce regole armonizzate sull'intelligenza artificiale), rappresenta una risposta alla duplice sfida, quella di evitare forti asimmetrie fra gli Stati Membri e quella di declinare sviluppo, utilizzo e diffusione di strumenti e tecniche di IA nel rispetto inderogabile dei valori fondativi dell’UE e dei diritti fondamentali espressi e radicati nel sistema valoriale della Carta dei diritti e della Convenzione europea per i diritti dell’uomo e per le libertà fondamentali. Nel settore della giustizia la questione del rischio di asimmetrie e di difformi comportamenti fra Stati Membri è particolarmente importante. Se, infatti, si pensa all’aumento che registriamo, dati alla mano, dei procedimenti crossborder e dei procedimenti che interessano settori di cooperazione giudiziaria, sia civile e commerciale (dove l’uso dell’IA negli spazi che il Regolamento autorizza e con i vincoli che il Regolamento afferma) sia penale (dove la questione certamente prioritaria che attiene alla creazione della prova, questo aspetto lungi dall’esaurire l’ampio spettro di questioni che l’incontro fra giustizia penale e tecnologie dell’IA generano e che sono come è noto alla attenzione sia del Consiglio d’Europa, sia della Commissione Europea, sia dei governi nazionali), si comprende immediatamente come il tema della effettività dell’eguale trattamento resta cruciale per la effettività delle tutele del giusto processo. 

Rispetto alla scelta regolamentare le altre istituzioni che intervengono, per le rispettive prerogative, nello spazio di possibilità d’azione e di decisione aperto dalla vertiginosa crescita ed inarrestabile espansione delle tecniche di IA, l’elaborazione e l’adozione di strumenti di soft law caratterizzano il vasto panorama internazionale che vede dal 2018 in poi la CEPEJ – Commissione europea per l’efficienza dei sistemi giudiziari attiva nel contesto del Consiglio d’Europa con funzioni di carattere consultivo, orientativo, cognitivo, e valutativo – il Consiglio d’Europa stesso – con le sue voci interne partecipi dell’articolato settore di presidio della rule of law e della democrazia – e la Commissione europea sia prima sia – e soprattutto – dopo l’adozione del Regolamento europeo AI Act – incidere su quella che a tutti gli effetti è la arena degli attori economici e istituzionali nella quale l’IA rappresenta non solo uno strumento ma anche un potentissimo meccanismi di ridefinizione degli stake di potere e di gioco. 

La ridefinizione delle partite in gioco ci interessa particolarmente poiché se vi è di certo un nesso che intercorre fra IA e dimensione sociopolitica del sistema giustizia questa è da identificarsi nella dimensione dell’esercizio della scelta, nell’esercizio di una auctoritas che cambia in modo qualitativo la realtà delle cose. Il dispositivo del giudice – per esemplificare il ragionamento – interviene sulla realtà inserendosi in una catena di carattere causale ed intenzionale orientata a modificare lo status quo: tanto è vero che dopo il decreto di una autorità giudiziaria vi saranno azioni dovute, obbligatorie, vietate, non dovute, e più in generale la relazione fra due parti – portatrici di diritti e situate in una determinata situazione di azione, di vita – sarà modificata. Richiamare questo non è inutile quando si parla di IA poiché la regolazione e la normazione – anche quella non cogente sul piano della esigibilità giuridica – incidono sul modo con cui si legittima l’esercizio di un potere di decisione che con l’IA viene ad essere non tanto banalmente aumentato quanto certamente trasformato. Poiché attiene alla istituzione la responsabilità di assicurare la tutela dei diritti e la responsabilità di rendere conto della effettività del servizio reso alla collettività – in ottemperanza sia ai principi fondativi del diritto euro-comune sia dei principi della nostra costituzione – è evidente che l’esercizio della scelta è il tema reale, centrale, fondamentale di cui occorre occuparsi quando ci si occupa di IA.

Se poi si considera che il settore giustizia partecipa della mise en oeuvre del principio di buon funzionamento della pubblica amministrazione e delle istituzioni nella loro situazione ordinamentale di interfaccia fra principi demo-costituzionali e società, allora è evidente che la questione della scelta – così come la si è posta – attiene non solo al merito decisionale in materia giuridico-giurisdizionale, ma riguarda anche la questione organizzativa, quella comunicativa, quella gestionale e contabile, insomma riguarda tutta la filiera di ciò che propriamente si chiama sistema delle accountabilities – dimensioni del rendere conto delle decisioni prese quando tali decisioni impattano sulla vita di altri – presenti e futuri. 

Ecco perché l’intelligenza artificiale applicata al settore dell’azione pubblica nel contesto della produzione, diffusione, valutazione e miglioramento dei servizi pubblici e dei beni collettivi, va intesa come un insieme di dispositivi di carattere tecnologici tecnico e matematico la cui regolazione va distinta per le fasi di sviluppo, utilizzo e monitoraggio e per i livelli di conoscenza fattuale, di architettura e di agency che esso implica. Nel settore dell’azione giuridica e giudiziaria ad oggi le promesse della giustizia predittiva si sono riverberate sia nella espansione delle cosiddette legal tech, sia nell’aumento della attenzione degli attori internazionali per la elaborazione di standard di accountability e responsiveness – di sviluppo ed uso -, sia nella sperimentazioni in taluni ordinamenti di strumenti di aiuto alla decisione del giudice, di elaborazione in via preliminare del potenziale di costo/beneficio di un contenzioso e della sua soluzione giurisdizionale. 

In realtà nel settore della giustizia l’utilizzo di questo insieme di strumenti ad alta intensità tecnologica e articolati sulla applicazione della scienza matematica e della scienza informatica, è in essere solo in alcuni paesi europei, anche se l’incontro fra il diritto e l’intelligenza artificiale va inteso in senso ampio, poiché già nella distribuzione automatizzata dei casi, nella analisi di banche dati giurisprudenziali – anche se non realizzata attraverso la traduzione del linguaggio naturale in una rappresentazione digitale – e nella gestione ponderata dei carichi di lavoro e dei flussi, lo strumento della automazione ha fatto la sua entrata nella giustizia ormai da tempo. 

Visto sul piano della qualità della giustizia la promessa e la aspettativa legata alla applicazione di strumenti di intelligenza artificiale vanno nella direzione di 

a) Potenziale di riduzione del contenzioso attraverso la prevenzione – via deflattiva privatistica (smart contract), via deflattiva processuale (ADR).

b) Riduzione dei margini di errore nella valutazione preventiva del rischio di soccombenza – target di impatto: law firm, professioni ordinistiche 

c) Riduzione dei tempi attraverso la trattazione in via automatizzata di quanto seriale e standardizzabile nella sopravvenienza

d) Riduzione dei margini di differenziazione distrettuale e circondariale per tipologie di risposta a simili tipologie di contenzioso. 

La regolazione etica e giuridica degli aspetti sovra menzionati deve tenere conto degli snodi organizzativi entro cui domanda ed offerta di giustizia si incontrano. Quattro appaiono le dimensioni funzionali che necessitano di essere poste alla attenzione della norma etica e giuridica in questo contesto: conoscenza, rito del processo, status dell’organo terzo dirimente le controversie, dati personali. 

I principi che vanno richiamati in tale senso sono: 

a) Responsabilità professionale e trasparenza della produzione della conoscenza 

b) Applicazione delle garanzie processuali di difesa 

c) Autonomia della giurisdizione e indipendenza del giudice

d) Privacy e sicurezza dei dati  

Essi si declinano in norme etiche e in norme giuridiche. 

In prima battuta sul piano etico un codice deontologico che assicuri la responsabilità professionale degli sviluppatori e di coloro che intervengono nel processo di integrazione e applicazione dei dispositivi di automazione appare necessario e in linea con le forme di regolazione delle expertise peritali e di consulenza di cui ci si avvale in via endoprocedimentale. 

Ancora la estensione delle garanzie processuali massime – in tal senso il caso ordinamentale italiano appare in una prospettiva comparata di sicura ispirazione – per i riti nei quali le parti possono avvalersi – con riconoscimento nel processo – di strumenti di giustizia predittiva deve essere assicurata con il massimo grado di tutela (costituzionale). 

La autonomia del giudice a fronte della disponibilità di conoscenza induttiva derivata dalla analisi di banche dati giurisprudenziali va assicurata sia con norme che obblighino le giurisdizioni supreme a un set di standard comuni per il trattamento di tale conoscenza da parte delle giurisdizioni ordinarie di primo e secondo grado, sia con norme che integrino nella argomentazione del giudice la esplicitazione della fonte da cui tale conoscenza viene desunta. Sul piano giuridico ordinamentale dovrebbero essere previste delle unità specializzate a livello di giurisdizioni di secondo grado – dove il giudizio di fatto trova la sua sintesi – per la valutazione dei dispositivi di analisi delle banche dati. 

Infine, la qualità dei dati e la loro tutela va prevista sul piano giuridico. Sub condizione di anonimato del giudice, le banche dati devono rispondere a sistemi di regolazione pubblica responsabili della sicurezza. In tal senso andrebbe previsto in via legislativa la disposizione nei ministeri di uffici preposti allo sviluppo reti e politiche di mantenimento della sicurezza. Le garanzie di privacy rispondono alle norme sovranazionali in materia (GRDP).  

 

3. Perché le Raccomandazioni del Consiglio superiore della magistratura necessitano di una strategia integrata che metta al centro tutte le accountabilities?  

Le Raccomandazioni adottate con delibera l’otto di ottobre del 2025 dal Consiglio superiore della magistratura entrano nella sopra descritta complessa arena con uno strumento di soft law che si incunea fra Regolamento europeo e normativa primaria nazionale, a che esse tengono conto della Legge del 23 settembre 2025, n. 132 che per l’Italia costituisce il riferimento normativo cogente nazionale in materia di IA. 

Afferma il testo del CSM che: «Rischi significativi riguardano, inoltre, gli output generati dai sistemi di IA che possono contenere errori e distorsioni, quali cd. allucinazioni (generazioni di contenuti non basati sulla realtà oggettiva), o cd. sycophancies (generazioni di contenuti compiacenti)». Il primo elemento di warning è dunque connesso alla questione dell’errore. Continua infatti il Consiglio affermando che «le risposte errate, infatti, possono avere origine: in dati di addestramento insufficienti o errati, non controllati, ovvero non strettamente riferibili ad informazioni tecniche e afferenti il settore specifico in cui esse devono poi essere utilizzate; nelle modalità di funzionamento degli algoritmi che, essendo basati sulla statistica, tendono talvolta anche a "inventare" una risposta solo "probabile" con l'instaurazione di una falsa correlazione tra i dati».

Il riconoscimento della centralità del dato e della sua qualità nell’influenzare in modo ineludibile la qualità dell’IA e quindi la modalità con la quale chi se ne avvale è chiamato ad esercitare l’ultimo miglio di scelta sub condizione di un monitoraggio consapevole e quindi di una effettiva responsabilità rispetto all’"an" e al "come" lo strumento sia stato utilizzato ad adiuvandum delle scelte di esercizio della autoctoritas è conseguenza lineare del ragionamento. Si tratta, si noti, di un ragionamento ha una premessa di ordine tecnico-fattuale. I dati sono il fattore che maggiormente influenza la qualità dell’IA. Pertanto poiché l’elaborazione per tecniche matematiche di carattere statistico risultano caratterizzate da un margine irriducibile a zero di possibile errore allora è chiaro che l’accountability resta nelle mani di chi utilizza l’IA. Di quali errori stiamo parlando? Dentro al meccanismo di costruzione della matrice di “allenamento” dell’algoritmo certamente l’errore è determinato dalla natura non deterministica della tecnica matematica adottata nel processare i dati. Ma l’errore che preme è in verità quello che attiene alla scelta stessa dei dati e della codifica degli stessi, scelta che – questa certamente – resta nelle mani di chi sviluppa l’IA. Dunque, la accountability, così come previsto dal Regolamento europeo, è anche (e diremmo prima facie) nell’alveo degli obblighi di chi sviluppa – i cosiddetti deployer. È così che deve essere intesa la Raccomandazione di un intervento del sistema giustizia rispetto alla creazione di una suite che sia di dominio “giustizia”, ossia un set di strumenti che trovi in un attore istituzionale o, meglio ancora, in un sistema di attori istituzionali – come di fatto la governance del sistema giustizia è configurata – il vero snodo di accountability di carattere istituzionale. Il mercato in questo caso non può dare una risposta poiché se lo facesse ancorché di alta qualità tecnica resterebbe comunque caratterizzata da quella influenza sulle asimmetrie di informazione che sono asimmetrie di conoscenze – delle matrici dei dati e delle tecniche di elaborazione algoritmica – tali da addivenire asimmetrie di potere. 

Si torna alla questione di cui sopra. Le Raccomandazioni intendono dare risposte a tale questione (che è quella, lo abbiamo detto, della modalità di assicurare accountability alle decisioni che integrano come strumenti ad adiuvandum, mai ad reductio, dell’IA. Esse, infatti, sono orientate a determinare quale uso possa essere fatto dell'IA da parte dei magistrati italiani, in attesa dell'entrata in vigore delle disposizioni europee previste per agosto 2026; se vi siano attività, nell'ambito della giustizia, che non comportano un rischio significativo di danno e non influenzano materialmente l'esito del processo decisionale, per le quali possa trovare applicazione la deroga prevista dall'art. 6, par. 3, dell'AI Act e quale sia la prospettiva di utilizzo dei sistemi di IA dopo l’agosto del 2026.

Il combinato disposto dell’articolo 6 del Regolamento europeo AI Act con l’articolo 15 comma 2 della legge 132 già offre un perimetro di obblighi e di divieti. Essi, infatti, mettono al centro il controllo e la responsabilità d’uso dell’agente umano il quale nei settori ad alto rischio è tenuto ad assicurare che l'attività svolta: a) sia limitata a compiti procedurali; b) migliori il risultato di un'attività umana già completata; c) rilevi schemi o deviazioni senza sostituire il giudizio umano; d) prepari un'attività valutativa da svolgersi con supervisione umana. 

Fin qui il nesso IA-accountability passa attraverso la azione dell’attore individuale. Sarà il giudice ad avvalersi dell’IA nella consapevolezza dei punti sub a, b, e c. Altresì sarà il giudice a non delegare quello che viene in letteratura definita postura epistemica cioè il posizionamento del ragionamento rispetto alla questione su cui sta ragionando e in ultima istanza decidendo mantenendo così una autonomia strutturale dell’esercizio della autoctoritas nelle mani della ratio istituzionale. Non delegando questa all’algoritmo. Si potrebbe affermare che il sistema dei controlli è in essere. Ci sono le norme primarie, ci sono le norme di soft law, ci sono le accountability istituzionali e quelle professionali. A questo punto la posta in gioco passa dal lato della formazione. Seppur su quest’ultima molto si sta dicendo e mai abbastanza in quanto è decisivo il fatto che sia assicurata nel tempo una formazione non teorica ma pratica e policy-oriented tecnologicamente consapevole ma non appiattita sulla questione tecnocratica, resta che manca una dimensione. Si tratta della dimensione organizzativa. Essa non può che essere collegiale, ossia andare al di là della situazione del giudice solo.  

 

4. La dimensione organizzativa: al di là del perimetro dell’uno 

Il CSM parla di «zona grigia tra attività propriamente giudiziarie e attività organizzative o accessorie, rispetto alle quali l'utilizzo dell'IA può essere considerato compatibile con l'ordinamento vigente». Si propone di inquadrare la questione facendo riferimento alla letteratura di scienze dei processi complessi ed in particolare al modello IAD (Institutional Analysis and Development Framework: «Il modello IAD comprende l'analisi degli attori, delle norme, dei contesti istituzionali, delle strutture di incentivo, delle regole e altro ancora. Gli scienziati sociali hanno ampiamente adottato il quadro IAD per studiare gli assetti istituzionali e l'emergere e i cambiamenti delle istituzioni nel tempo (…). Il quadro IAD suddivide le situazioni in “arena di azione”, che includono “partecipanti” e “situazioni d'azione”. I “partecipanti” sono influenzati dalle “Variabili Esogene”, prendono decisioni all'interno delle “regole” esistenti e si impegnano in “interazioni”. Sia le Variabili Esogene sia le interazioni dei “partecipanti” producono risultati, che vengono valutati dai “partecipanti”». Adesso proviamo a vedere come il modello permette di inquadrare la situazione di azione del giudice allargandola ad una visione organizzativa, quindi collettiva. La normativa infatti interviene sulle variabili di carattere esogeno. Fissa vincoli ed opportunità – ossia opzioni di azione lecite e non lecite, ne fissa le sanzioni e ne fissa le forme di responsabilità. In altri termini per ogni tipologia di azione che il giudice compie avvalendosi degli strumenti di IA fissa costi e benefici e fissa i costi (le sanzioni) della violazione delle regole. Questo è ciò che funzionalmente fanno le regole rispetto all’azione. Ma non basta. Cosa accade alle variabili endogene? Nelle situazioni in cui quotidianamente si trova ad operare il giudice essere sono esemplificate da una serie di fattori di ordine organizzativo: routine di lavoro, modalità di interazione con le cancellerie, con gli uffici per il processo, con i sistemi informativi, con i responsabili per l’informatica, con i colleghi dell’organo giudicante quando ci si trova in composizione non monocratica, e gli esempi potrebbero essere moltiplicati. Certo, molte delle forme dell’interazione sono organizzate secondo procedura e secondo ordinamento. Ma la variabile organizzativa interviene in modo determinate. Riprova ne sia l’importanza che essa riveste nel perimetro delle attenzioni e della cura che vi si rivolte negli esercizi previsti dalla normativa italiana di organizzazione e di pianificazione. Non solo. È proprio nell’organizzazione e attraverso l’organizzazione, la sua matrice complessa di “chi fa cosa” di “chi sa fare cosa e sa chi sa fare cosa”, nella tessitura della filigrana di quotidiane interazioni di mutuo controllo – si pensi al controllo nelle fasi di formazione del fascicolo ovvero nelle fasi di elaborazione preliminare di una questione di fatto – che “vive” l’organizzazione. Essa non è mai individuale. Certo, esiste la dimensione della capacità organizzativa del singolo magistrato della sua agenda di lavoro. Ma tale agenda si situa ancora una volta dentro a quella situazione di azione che il modello IAD ci permette di vedere in modo trasversale alle singole sedi giudiziarie, ai singoli periodi storici, come qualsiasi modello astratto. Cosa ci permette di vedere? 

Se le variabili interne alla situazione di operatività concreta del giudice sono rilevanti, vale la pena capire di che natura solo. Nel modello ne abbiamo di tre tipi. Vi sono le risorse cognitive: le informazioni e le competenze, che non sono mai relative ad un solo attore, ma sono sempre la combinazione delle stesse per i singoli attori presenti, per i loro diversi ruoli. Vi sono poi le legacy, cioè le modalità di agire che si sono consolidate in passato, più o meno remoto. Esse sono nella fattispecie qui considerata le prassi, le routine di lavoro, soprattutto quelle non espresse verbalmente, nelle quali sono naturaliter inserite le modalità di controllo della qualità delle micro-mansioni dei risultati conseguiti ad ogni fase dell’agire quotidiano. Si tratta di una forma silenziosa tacita e capillare di organizzazione de facto che assai di rado trova consolidamento in un ordine di servizio e quand’anche così fosse resterebbe comunque a maglie lasche sul piano dei meccanismi di coordinamento fra una persona e un’altra, fra funzionari fra amministrativi e personale togato, e via di seguito. Infine vi sono le risorse di carattere spaziale ovvero quelle di carattere strutturale che caratterizzano la tempistica dei meccanismi di controllo e di coordinamento – basti pensare alle modalità di agire in un palazzo di giustizia che integra tutte le funzioni della giurisdizione rispetto a quelle che si adottano in un palazzo di giustizia che ne integra solo alcune, come il primo grado ma non l’appello se si tratta di sede distrettuale, oppure il tribunale ma non la procura se si tratta di una sede circondariale, solo per fare degli esempi. In altri e più generali termini il modello IAD ci permette di vedere che la situazione del giudice è una situazione di azione multi-agentica in senso già ordinamentale, processuale e funzionale. 

È in questo contesto che entra l’IA. E vi entra come una ratio agentica, ma scevra di quelle caratteristiche deontiche – ossia legate al dover fare e al dover rendere conto del fare – che invece sono proprie degli agenti intenzionali responsabili e diremmo in questo contesto di più: aventi una missione costituzionalmente orientata e istituzionalmente tenuta a rendere conto. 

È in quella situazione multi-agentica che occorre pensare modelli di qualità della amministrazione della giustizia che tengano conto della entrata in scena di strumenti che, per quanto tecnici e non intenzionali. Cosa significa tutto questo? Significa che insieme alla suite di IA occorre che siano pensate le forme organizzative delle unità che compongono la vita organizzativa de facto di un ufficio giudiziario. Il giudice non agisce nella solitudine ed è in questo contesto collettivo ed integrato che va pensato il modo per assicurare alert e meccanismi di prevenzione dell’errore legati all’uso – ancora una volta pur strumentale e mai esaustivo della dimensione decisionale ed autoritativa – dell’IA. Non può che essere il sistema CSM – Ministero della Giustizia con tutte le istanze sul territorio partecipi ad operare in tal senso. I modelli di organizzazione che per esempio sono previsti dalla normativa in materia di ufficio per il processo potrebbero essere un primo banco di priva di un menu di modelli in cui le accountabilities sono pensate come catene di controllo collegiale, anche avvalendosi degli strumenti trasversali che coadiuvano la governance degli uffici giudiziari a livello di funzioni direttive – si pensi agli uffici per l’innovazione o agli uffici per il processo trasversali. Cosa dovrebbero fare? Si tratta di immaginare come sia da fare diventare parte della vita quotidiana di lavoro la discussione e la determinazione di come interagire con i prompt della IA generativa, così come sarebbero importanti le linee guida di uso dell’IA a livello di sezioni – essendo l’IA verticale e non generalista più adeguata al tipo di bisogno strumentale che può emergere nel contesto giustizia. Sono solo esempi. Ma una riflessione va fatta e va fatta adesso. Uscendo dall’idea che vi sia un singolo attore dinnanzi all’algoritmo. L’attore c’è. evidentemente. E l’autonomia del giudice resta intonsa intangibile intoccabile. Ma sul piano funzionale operativo di ogni giorno gli uffici sono organizzazioni complesse ed è in quel contesto di azione o più propriamente di quella situazione di azione che l’IA va messa sotto il cappello normante che la piega al servizio di strutture multi agentiche in cui essa svolgerà solo il ruolo quand’anche molto utile di apporto strumentale. 

 

 

Ristretta selezione di alcuni riferimenti bibliografici 

Bell, F, et al. (2022) AI decision-making and the courts: A guide for judges, tribunal members, and court administrators. Australasian Institute of Judicial Administration Incorporated, June 2022. 

Bühlmann, M and Kunz, R (2011) Confidence in the judiciary: Comparing the independence and legitimacy of judicial systems. West European Politics 34(2), 317–345.

CEPEJ, (2018) European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment, ES250132_PREMS 005419 GBR 2013 charte ethique CEPEJ WEB A5.pdf 

Consiglio Superiore della Magistratura, (2025), Raccomandazioni sull'uso dell'intelligenza artificiale nell'amministrazione della giustizia, Brevi dal plenum - news - CSM

European Commission (2024) Shaping Europe’s digital future—AI act, 6 March 2024.

European Union, (2024) Regolamento UE 2024/1689 del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale L_202401689IT.000101.fmx.xml

Garapon, A. e Lassègue, J. (2018). Justice digitale. Révolution graphique et rupture anthropologique, PUF

Lombardini, I. (2022). Intelligenza artificiale e decisione robotica nella giustizia civile, in R. Tiscini, F. P. Luiso (dir.), Scritti in onore di Bruno Sassani, Pacini Editore, Vol. II, 1839 – 1867.

Morison, J and Mclnerney, T (2024) When should a computer decide? Judicial decision-making in the age of automation, algorithms and generative artificial intelligence. In Turenne, S and Moussa, M (eds), Research Handbook on Judging and the Judiciary: Law and Society Series. Elgar-Routledge.

Piana, D. (2021), Legal Services and Digital Infrastructures. London, Routledge. 

Piana, D. Viciconte, G. (2023), La governance pubblica fra il prossimo regolamento UE sull’intelligenza artificiale e il codice dei contratti. Scenari attuativi ed esigenze di controllo a fronte dell’evoluzione dell’IA, Rivista della Corte dei Conti, 4, 30-42. 

Resta, A., (2024) Towards a European Large Scale Initiative on AI. CEPS, 11.

Santosuosso, A., G., Sartor (2022). La giustizia predittiva: una visione realistica. In Gabrielli, E. & Dell’Utri, M. (Eds.), La giustizia predittiva. Giur. It., 1760 – 1782. 

Sartor, G. (2022). L’intelligenza artificiale e il diritto. Giappichelli.

Socol de la Osa DU, Remolina N. Artificial intelligence at the bench: Legal and ethical challenges of informing—or misinforming—judicial decision-making through generative AI. Data & Policy. 2024. 

12/11/2025
Altri articoli di Daniela Piana
Se ti piace questo articolo e trovi interessante la nostra rivista, iscriviti alla newsletter per ricevere gli aggiornamenti sulle nuove pubblicazioni.
Seminario di presentazione del volume La riforma costituzionale della magistratura
a cura di Redazione

Magistratura democratica e Questione giustizia presentano il volume dedicato a La riforma costituzionale della magistratura, 20 novembre 2025, ore 15.30, Roma, Corte di Cassazione, Aula Giallombardo

05/11/2025
Persona, comunità, Stato alla luce della riforma Meloni-Nordio

Il principio personalista è pacificamente annoverato tra i princìpi supremi della Costituzione, non derogabili neppure con procedimento di revisione costituzionale. Effetti di sistema su di esso possono rinvenire dalla riforma costituzionale della magistratura. La separazione delle carriere risulta allo stato adiafora rispetto al disegno costituzionale, come del resto già riconosciuto dalla Corte costituzionale, ma, tenuto conto dell’ambiente processuale concreto in cui viene a calarsi, sortisce un effetto contrario a quello voluto dal revisore costituzionale, con un rafforzamento del pm che non giova, e anzi è di ostacolo, all’auspicato incremento della terzietà del giudice, specie delle indagini preliminari. La duplicazione dei csm e la loro composizione affidata al sorteggio appaiono prive di efficacia sul fenomeno del “correntismo” ma ne annullano la rappresentatività dei magistrati in violazione del principio elettivo, che appare di carattere supremo. La stessa Alta Corte di giustizia per i soli magistrati ordinari dà l’idea di un giudice speciale non in linea con il divieto costituzionale. Queste criticità rischiano di indebolire l’immunità delle persone da pene ingiuste in conseguenza dell’alterazione dell’equilibrio tra persona, comunità e Stato. Piegata impropriamente a risolvere problemi contingenti e specifici, la riforma non ha il dna della “legge superiore”, presbite e perciò destinata a durare nel tempo. Data la sua prevedibile inefficacia relativamente ai fini dichiarati, essa ha valore simbolico e mira piuttosto ad aggiustare il trade-off tra giustizia e politica in senso favorevole a quest’ultima. 

22/10/2025
Giustizia e nuove tecnologie

Sabato 8 novembre 2025, ore 10:00, Fondazione Lelio e Lisli Basso con possibilità di partecipazione online

20/10/2025
L’estremismo istituzionale del governo Meloni. Una rivincita degli “esclusi”?

Una accorta politica economica dei “conti in ordine” e l’equilibrismo della presidente del Consiglio tra le simpatie ideologiche per l’amministrazione Trump e la volontà di non perdere contatto con l’Unione europea sulla crisi ucraina, hanno guadagnato al governo Meloni un’immagine di moderazione, smentendo molte delle preoccupazioni e delle apocalittiche previsioni emerse alla vigilia del suo insediamento. Una immagine che è stata solo marginalmente scalfita dagli interventi di Giorgia Meloni successivi all’omicidio Kirk, nei quali, dimenticando di essere la presidente del Consiglio di tutti gli italiani, non ha esitato ad addebitare alla sinistra italiana immaginarie minacce presenti ed esclusive responsabilità per gli odi, gli scontri e le vittime degli anni di piombo. Quando però si mette sotto la lente di ingrandimento la politica istituzionale del governo, l’immagine di misura, di equilibrio, di cautela svanisce e cede il posto ad un dichiarato oltranzismo ed a scelte improntate all’estremismo ed al revanscismo istituzionale e costituzionale. Tratti, questi, che non provengono dal fascismo (per molti aspetti il governo Meloni è infatti compiutamente afascista) ma dall’humus culturale profondamente autoritario del Movimento Sociale Italiano degli anni 70 e 80 guidato da Giorgio Almirante. Ad ispirare le riforme costituzionali propugnate dal governo è infatti la cultura – ereditata dal partito di Fratelli d’Italia - degli “esclusi” dall’elaborazione del patto costituzionale, i quali, pur collocando la loro azione politica nell’alveo della competizione democratica, si sono sempre sentiti “estranei” ai valori ed agli equilibri culturali ed istituzionali cristallizzati nel testo della carta fondamentale e si sono posti come avversari della Resistenza e delle forze politiche che hanno cooperato alla costruzione nel Paese della Repubblica democratica. La genealogia delle riforme costituzionali e della politica del diritto perseguita dal governo consente di cogliere nitidamente le eredità del passato, gli elementi di voluta continuità con le idee e le proposte istituzionali dell’estrema destra della prima Repubblica e l’ostilità verso alcuni degli istituti più caratterizzanti della nostra Costituzione. Questo oltranzismo istituzionale e costituzionale - che smentisce i giudizi sulla moderazione dell’attuale governo e suscita vive preoccupazioni sulla tenuta futura del quadro democratico – è tanto più inquietante in quanto esso è frutto di una volontà di rivincita sulla Costituzione e sulla storia istituzionale repubblicana del “polo escluso”, esprimendo la volontà di capovolgere regole e principi fondanti della democrazia repubblicana. L’analisi dei progetti di riforma costituzionale – assetto della magistratura e premierato – e della politica del governo sul versante del diritto penale e dell’immigrazione consente di illustrare gli aspetti di revanscismo della linea politica perseguita dalla maggioranza di destra.

26/09/2025
The institutional extremism of the Meloni Government. The revenge of the “marginalised”?

Per rispondere alle richieste di conoscenza dell’attuale situazione italiana che provengono da magistrati e giuristi stranieri, pubblichiamo in inglese il testo del Controvento firmato da Nello Rossi intitolato L’estremismo istituzionale del governo Meloni. Una rivincita degli “esclusi”?. Il testo italiano si può leggere qui.


An astute “orderly accounts” economic policy and the Prime Minister’s political tightrope between ideological sympathies for Trump’s administration and her intention not to lose touch with the EU on the Ukraine crisis have earned Meloni’s government a public image of moderacy and refuted many of the worries and apocalyptic forecasts that had emerged on the eve of its inauguration. This public image was only insignificantly touched by Giorgia Meloni’s statements that followed the assassination of Charlie Kirk, when, forgetful of her role as all Italians’ Prime Minister, she did not hesitate to hold the Italian left accountable for imaginary current threats and exclusively responsible for the hatred, conflicts and victims of the “Years of Lead”. However, a closer observation of the government’s institutional policy makes its measured, well-balanced and cautious image fade away and make way for deliberate inflexibility and for choices grounded on institutional and constitutional revanchism. These traits do not come directly from fascism (in facts, Meloni’s government is utterly a-fascist), but rather from the deeply authoritarian cultural foundations of Giorgio Almirante’s Italian Social Movement (Movimento Sociale Italiano, MSI) of the 1970s and 1980s. That culture of the “marginalised” from the elaboration of the constitutional pact – which Brothers of Italy inherited – is the inspiration for the constitutional reforms sponsored by the government: though acting in the political context of democratic competition, those “outcasts” have always perceived themselves as “estranged” from the values and the cultural and institutional balances enshrined in the Constitution and have always opposed the Resistance and the political forces that cooperated to build a democratic republic in Italy. The genealogy of constitutional reforms and the policy of law pursued by the government allows to clearly identify the legacy of the past, the elements of an intentional continuity with the ideas and institutional proposals expressed by the First Republic’s far-right and the resentment against some of the most specific features of our Constitution. This institutional and constitutional extremism – which contradicts the assumed moderation of the incumbent government and raises deep concerns on the future hold of the democratic framework – is all the more disquieting as it expresses the will of the “marginalised pole” to take revenge on the Constitution and the institutional history of the Republic and to overturn the founding rules and principles of Italy’s republican democracy. An analysis of the constitutional reform bills – organisation of the judiciary and premiership system – and of the government’s criminal law and immigration policy allows to describe the revanchism-related aspects of the political agenda pursued by the right-wing majority.

26/09/2025