Magistratura democratica
Leggi e istituzioni

Quale giustizia al tempo dell’intelligenza artificiale? *

di Renato Rordorf
già Presidente aggiunto della Corte di cassazione, già Direttore di Questione giustizia

1. Una necessaria premessa

Quando mi è stato chiesto di intervenire al convegno focalizzato sul tema dell’informazione giuridica al tempo dell’intelligenza artificiale, organizzato per solennizzare i primi centocinquant’anni del Foro italiano, ho avuto un momento di forte perplessità. Mi sono chiesto se abbia senso che un ottuagenario come me si avventuri a trattare di un fenomeno relativamente ancora assai nuovo e che, tuttavia, appare già in grado di sconvolgere abitudini di lavoro consolidate e di realizzare una vera e propria rivoluzione in molti campi dell’agire umano, ivi compreso quello del diritto. 

Circa una quarantina di anni fa la mia generazione, sia pure con qualche fatica, si è adattata all’avvento dell’informatica giuridica, passando dall’uso della penna, o al più della macchina da scrivere, all’uso del computer, dalla consultazione dei repertori e delle rassegne cartacee di giurisprudenza alla ricerca su supporti informatici, dal deposito manuale in cancelleria degli atti e dei provvedimenti alla trasmissione per via telematica, e così via. Come ogni mutamento di abitudine ciò ha richiesto un certo sforzo, ma indubbiamente ne è valsa la pena in termini sia di risparmio di tempo sia di maggiore accuratezza dei risultati. Adesso, però, acconciarsi in tarda età anche all’intelligenza artificiale forse è davvero chieder troppo!

Alla fine, però, nonostante tutto, ho accettato l'invito: soprattutto per l'antica amicizia e per la gratitudine che ho per il Foro italiano e per tutti coloro che lo hanno fatto e che oggi ancora continuano a farlo. Sia pure con la consapevolezza di avventurarmi in una terra incognita, ho provato perciò a svolgere qualche breve riflessione, di cui cercherò ora di dar conto.

All’inizio del nostro incontro Roberto Pardolesi ha chiesto in quale categoria ciascuno di noi si colloca rispetto al fenomeno dell'intelligenza artificiale: se entusiasti o catastrofisti (o, per dirla alla Umberto Ecco, apocalittici o integrati)[1]. Quale è il nostro atteggiamento di fronte a questa nuova sfida? 

Con tutta franchezza debbo ammettere che non saprei rispondere con precisione a tale domanda.

Non intendo demonizzare questo nuovo, mirabolante strumento. Non credo sia una specie di faustiano patto col diavolo, destinato a subordinare gli uomini al dominio della tecnica. C’è chi lo esalta e chi lo depreca, ovviamente anche tra i giuristi[2]. Quanto a me, come è normale che sia per le persone non più giovani, provo un qualche disagio in presenza di novità idonee a modificare profondamente il modus operandi al quale una lunga esperienza di vita mi ha abituato. Donde – non posso negarlo – una certa mia diffidenza nei confronti dell’uso dell’intelligenza artificiale o forse, più semplicemente, una qualche difficoltà di comprensione del fenomeno, sia in generale sia, in particolare, in ambito giuridico; quanto meno se si voglia spingere l’uso dell’intelligenza artificiale al di là della semplice (ed utilissima) migliore ricognizione dei dati occorrenti al giudice per la sua decisione e se, invece, la si intenda come strumento idoneo ad esprimere valutazioni giuridiche ed a formulare decisioni sulla base di algoritmi capaci di produrre automaticamente un provvedimento giudiziario. 

Ammetto di avvertire qualche brivido nella schiena quando sento parlare, per esempio, della “soggettivizzazione” giuridica dell’intelligenza artificiale, al punto che nel rapporto di lavoro essa potrebbe assumere la veste del datore di lavoro facendo sì che uno dei due termini di questo rapporto non abbia più connotati umani. Non possiamo però nemmeno pretendere che il mondo si fermi perché ne vogliamo scendere. Piaccia o no, l'intelligenza artificiale è nel nostro futuro, anzi nel presente, e quindi dobbiamo farci i conti. 

 

2. Intelligenza artificiale predittiva e decisoria 

È chiaro che l'intelligenza artificiale ci pone in condizione di dominare una enorme quantità di dati e ci fornisce informazioni in misura straordinariamente maggiore di quanto i tradizionali strumenti di cui finora si è avvalsa l'intelligenza umana non possano fare. Ma c’è molto di più. Da quanto ho capito, pur essendoci diversi modi di intendere l’intelligenza artificiale (ormai comunemente designata con l’acronimo IA, o, alla maniera anglosassone, AI) e differenti funzioni cui essa può servire, la sua caratteristica fondamentale è il cosiddetto “machine learning[3], cioè la capacità di autoeducarsi e, quindi, utilizzando una grande molteplicità di dati, di costruire di volta in volta ulteriori legami secondo dei meccanismi logici guidati da algoritmi ed arricchiti dai cosiddetti grandi modelli linguistici (Large Language Model, designati spesso con l’acronimo LLM)[4]. Non è perciò soltanto una sorta di grande repertorio, nel quale ciascuno possa ricercare il dato che gli interessa, bensì un ambiente dove i dati sono organizzati ed elaborati secondo logiche ben precise, in grado di generare nuovi contenuti. Donde la capacità dell'intelligenza artificiale, utilizzando dati, statistiche e modelli, di prevedere e pianificare opportunità, scenari o eventi futuri (predictive AI). Ma anche – e questo, dal punto di vista giuridico, è più delicato – di suggerire quale sia la decisione più coerente da prendere in un determinato contesto. Nel qual caso si parla di “decision AI”, ossia di intelligenza artificiale decisionale, capace non solo prevedere degli scenari ipotetici ma di cooperare col decisore, o addirittura sostituirsi ad esso, ove quegli scenari siano reali. 

Tutti ci esercitiamo quotidianamente nel fare previsioni, alla luce delle quali orientiamo le nostre scelte, nelle piccole come nelle grandi cose. Ma un conto è operare delle scelte sulla base di previsioni fornite da sistemi di intelligenza artificiale, altro è delegare direttamente all’intelligenza artificiale il compimento di quelle scelte, e ciò vale naturalmente anche nell’ambito giuridico, nel quale si tratta allora di comprendere se e come la funzione predittiva e quella decisoria dell’intelligenza artificiale possano operare e siano eventualmente destinate ad intrecciarsi.

E’ sin troppo evidente che ne possono derivare notevoli vantaggi quanto alla prevedibilità delle decisioni e, quindi, alla certezza del diritto, potendo l’intelligenza artificiale essere proficuamente impiegata per l’analisi e la classificazione di un vasto patrimonio di precedenti giurisprudenziali[5], ma occorre evitare il pericolo che ne scaturisca una giurisprudenza disumanizzata e tendenzialmente ingessata, perché costruita solo o prevalentemente sulla base di decisioni pregresse e, come tale, incapace di percepire le eventuali esigenze di cambiamento. La giurisprudenza deve saper cogliere le spinte evolutive che si manifestano nella società per far sì che il diritto vivente – per l'appunto – viva, e quindi sappia di volta in volta adattarsi ai mutamenti sociali, anche magari a legislazione invariata, come è sempre avvenuto ma come invece il cieco ricorso ad algoritmi costruiti sull’esperienza del passato potrebbe ostacolare. 

Ma c’è anche un altro rischio, forse per certi aspetti persino più grave: quello di dar vita ad una giurisprudenza, per così dire, esoterica, perché frutto di algoritmi quasi sempre assai poco comprensibili al di fuori di una ristretta cerchia di addetti ai lavori, esperti di informatica forse più che di diritto.

 

3. Antropocentrismo

Uno dei principi più volte espressamente richiamati nel Regolamento europeo 2024/1689 sull’intelligenza artificiale (AI Act)[6], ribadito anche in ambito nazionale dalla legge 132 del 2025, si riferisce all’antropocentrismo («man in the middle»). Si vuole che l’utilizzo di qualsivoglia tecnologia di intelligenza artificiale avvenga sempre sotto la supervisione umana, sia per ciò che attiene alla correttezza ed affidabilità dei dati sia per quel che riguarda la validità del risultato raggiunto. Il ricorso all’intelligenza artificiale, pertanto, non dovrebbe mai attuarsi in modo meccanico o automatico, ma pur sempre costituire uno soltanto degli elementi dei quali il giurista si avvale nel compiere le proprie valutazioni e nel prendere le proprie decisioni. 

Temo che sia più facile a dirsi che a farsi, ma mi sembra un principio ineludibile se non si vuole snaturare completamente il mondo del diritto, per come è andato costruendosi nei secoli. 

E’ fuor di dubbio che l’intelligenza artificiale predittiva può essere di grande aiuto, ad esempio, al difensore che intenda soppesare le probabilità di successo ed i rischi di soccombenza in una causa che egli intenda promuovere o nella quale si accinga a resistere. Ma ciò non lo esime poi dal dovere di esercitare il suo giudizio, con la sua sensibilità e la sua esperienza professionale, per stabilire infine quale sia la condotta migliore nell’interesse del cliente[7]. Allo stesso modo per il giudice, anche al fine di esperire un tentativo di conciliazione, potrà essere di ausilio avere piena contezza delle prevedibili aspettative che le parti di una controversia possano ragionevolmente nutrire, tenendo conto delle quali potrà risultare più facile la ricerca di soluzioni transattive capaci di andare incontro a quelle aspettative ed individuare così il terreno favorevole ad una transazione.          

Le maggiori criticità, in questo campo, come ho già accennato, sono però quelle che si addensano sulla decision AI

Il confine, almeno in teoria, dovrebbe essere netto: la decisione giudiziaria non può essere demandata solo alla macchina. L’antropocentrismo che, come s’è detto, deve pur sempre caratterizzare l’uso dell’intelligenza artificiale impone all’uomo – giudice, avvocato o altro che sia – di assumere su di sé la responsabilità morale e giuridica della decisione e, quindi, di sottoporre il risultato dell’intelligenza artificiale al vaglio della sua intelligenza umana[8]. E, se è vero che le capacità  della macchina di elaborare scenari, reperire dati e collegarli tra loro in base ad astratte regole logiche ed appositi modelli è ampiamente superiore a quella della mente umana, ma non va dimenticato che l’intelligenza dell’uomo non è solo il risultato della combinazione di memoria e di logica, ma si alimenta pure di sensibilità ed emozioni, senza le quali non sapremmo più bene distinguere l’uomo dal robot; e, poiché la società è composta da uomini e la giustizia è uno dei suoi fondamenti, è sempre preferibile che ad amministrarla siano comunque degli uomini, pur con tutti i loro difetti ma con la capacità di corrispondere alle specifiche esigenze del caso concreto meglio di quanto l’applicazione meccanica di astratti criteri logici è in grado di fare[9]. E qui la mente corre a quel movimento, sorto parecchi anni fa in America, denominato Law and literature[10], che ci ha insegnato come anche la cultura letteraria, benché apparentemente distante dalla cultura giuridica, possa contribuire significativamente alla formazione del buon giurista, in quanto affina quelle sensibilità umane che necessariamente concorrono alla formulazione di un retto giudizio e che la fredda logica algoritmica, propria dei sistemi di intelligenza artificiale, non credo potrebbe mai acquisire. L’amministrazione della giustizia postula, certamente, il pieno utilizzo delle facoltà razionali, ma non può prescindere dalla ricerca di quel valore – talora sfuggente ma pur sempre profondamente radicato nell’animo umano – che chiamiamo, per l’appunto, “giustizia”: ed è una ricerca che non può essere demandata a delle macchine[11]

Non è questo il luogo per sviluppare i complessi problemi che pone l’interpretazione giuridica, ma credo possa ormai darsi per acquisito, in estrema e rozza sintesi, che oggi il giudice non è più solo quella bouche de la loi di cui parlava nel diciottesimo secolo Montesquieu, perché la sua funzione non si esaurisce nella meccanica trasposizione della legge astratta e generale ad un caso concreto che vi corrisponda, ma richiede spesso delicate operazioni di adeguamento del dettato normativo a principi di carattere sovraordinato ed opportuni bilanciamenti tra principi diversi[12]. Se così è, si dovrà convenire che questo compito difficilmente potrebbe essere assolto da sistemi artificiali, necessariamente ispirati ad una logica formale, rischiando altrimenti di dar vita ad una sorta di neopositivismo delle macchine in cui sarebbero gli algoritmi a fungere da bouche de la loi.      

Al giurista spetta perciò il delicato compito di utilizzare al meglio l’intelligenza artificiale, senza tuttavia perdere il controllo di quel che egli fa. Il che mi sembra dovrebbe indurre a mettere in discussione quei sistemi di c.d. legaltech, sviluppatisi in diversi paesi europei, che si offrono di risolvere controversie online con modesta spesa ricorrendo unicamente all’intelligenza artificiale[13]

 

4. La ricerca giuridica

Il terreno della ricerca è indubbiamente quello in cui il ricorso all’intelligenza artificiale può essere di straordinaria utilità: sia per la garanzia di maggiore completezza dei dati sia per la capacità di elaborarli come e meglio di quanto potrebbe fare un repertorio o una tradizionale rassegna di giurisprudenza e dottrina, evidenziando, ad esempio, gli orientamenti prevalenti e quelli minoritari, l’esistenza di interrogativi sollevati dall’accademia ed ancora non affrontati dalla giurisprudenza, le concordanze o le discrasie tra giurisprudenza e dottrina, e così via. Non diversamente da quel che accade per ogni ricerca, però, sarà pur sempre il ricercatore umano a doversi far carico di trarre le conclusioni, vuoi sul piano teorico vuoi in chiave pratica[14]. Vi deve essere un’effettiva capacità, da parte dell’uomo, di controllare le finalità perseguite dal sistema e gli effetti collaterali che ne derivano. Come le tradizionali rassegne, così, a maggior ragione, l'intelligenza artificiale è pur sempre soltanto uno strumento utile per giungere ad una conclusione destinata comunque ad essere autonomamente elaborata dalla mente umana del giurista. 

Esiste, certo, il rischio che il più facile accesso alle informazioni necessarie per una decisione, consentito dall’intelligenza artificiale (ma, in qualche misura, già dall’uso dei repertori informatici), accentui una qualche naturale pigrizia dell'interprete e lo induca ad appiattirsi acriticamente sui precedenti che gli sono agevolmente offerti. È ben vero che il vizio della pigrizia e la tentazione della scelta interpretativa più facile ed ovvia sussistono da sempre, a prescindere dall’uso dell’intelligenza artificiale, ma v’è da temere che questo uso lo accentui, anche grazie all'aura di particolare esattezza ed accuratezza che circonda l'intelligenza artificiale ed i suoi risultati, e bisogna esserne consapevoli per potersene guardare.

Eppure, è noto che anche l’intelligenza artificiale talvolta sbaglia, che ha delle lacune o, come suol dirsi, delle allucinazioni, ossia informazioni plausibili ma false perché non basate sui dati reali o frutto di algoritmi non correttamente elaborati. Qui forse sta il nodo più intricato da sciogliere: perché i meccanismi sui quali l’intelligenza artificiale si basa, pur sempre all’origine frutto di attività umana, sono in qualche misura opachi o, almeno, poco facilmente decifrabili da parte del giurista di formazione tradizionale. Se è vero che la responsabilità della decisione deve pur sempre spettare all’uomo, ci si dovrebbe attendere che egli sia in condizione di conoscere e verificare tutti i passaggi che a quella determinata decisione conducono. L’uso di uno strumento così potente richiede che chi lo adopera abbia la competenza necessaria per poterlo fare consapevolmente (e, quindi, responsabilmente), ma la tradizionale formazione culturale del giurista è ben lungi dal garantire che egli ne sia capace. Il che involve delicati problemi di responsabilità giuridica – che qui non v’è spazio per analizzare, ma che vanno almeno segnalati – per chi dell’intelligenza artificiale si avvalga senza sapere o riuscire a governarne adeguatamente gli esiti[15].

 

5. La formazione

Proprio per questo l’irrompere nel mondo del diritto dell’intelligenza artificiale richiede un grande sforzo di formazione del giudice (e, più in generale, di qualsiasi operatore giuridico), tale da permettere – o, quanto meno, da favorire nei limiti del possibile e del ragionevole – un’adeguata comprensione del modo in cui questo nuovo strumento opera, delle sue potenzialità e dei suoi limiti[16]. Serve stimolare il senso di responsabilità nell'uso dell'intelligenza artificiale, non per scoraggiarlo ma per far sì che sia un uso il più possibile consapevole delle possibilità e dei rischi ad esso inerenti. Un compito formativo, certo non facile ma assolutamente necessario, che chiama in causa, per quel che riguarda la formazione dei giudici, il Csm e la Scuola superiore della Magistratura, ma al quale occorre si dedichino anche gli organismi direttivi degli ordini professionali nell’interesse dei professionisti che operano in ambito giuridico.  

Bisogna, prima di ogni altra cosa, abituare il giurista a porre le domande giuste: direi, con rozza sintesi, non a chiedere all’intelligenza artificiale come un determinato caso giuridico debba essere risolto, bensì come e quanti casi che presentano significative analogie con quello in esame siano stati già risolti. Non solo perché nessun caso è davvero identico all’altro ed occorre comunque verificare sino a qual punto i precedenti siano significativi (l’arte del distinguishing, che sono usi ben coltivare i giuristi anglosassoni), ma soprattutto perché – si pensi a clausole generali quali la buona fede, i giusti motivi, l’adeguatezza degli assetti organizzativi dell’impresa, ecc. – le decisioni pregresse sono spesso a loro volta frutto di valutazioni dipendenti da caratteristiche peculiari di ciascun caso, ispirate a considerazioni di tipo etico-sociale piuttosto che strettamente giuridiche.

Provando allora a fare qualche esempio, mi sembra che, nel giudicare di una giusta causa di licenziamento di un lavoratore dipendente, non si debba semplicemente demandare all’intelligenza artificiale di stabilire se il comportamento del dipendente integri o meno gli estremi della giusta causa, ma potrebbe risultare utile avvalersi dell’intelligenza artificiale per scandagliare le situazioni che presentano significative analogie con quella in esame ed evidenziare i criteri logico-giuridici in base ai quali si è deciso in quelle situazioni. Ed ancora, dovendo giudicare del corretto adempimento dell’obbligo di istituire adeguati assetti organizzativi, gravante sull’amministratore di una società[17], non si potrà banalmente chiedere all’intelligenza artificiale se, in concreto, gli assetti organizzativi di quella società siano adeguati, rispetto alla natura e dimensione dell’impresa (come prescritto dall’art. 2086, comma 2, c.c.), ma dell’intelligenza artificiale ci si potrà servire per calcolare il rischio d’impresa e stabilire se quegli assetti siano o meno in grado di corrispondere alle finalità enunciate dal terzo comma dell’art. 3, del Codice della crisi (ossia di rilevare gli squilibri economico-finanziari o patrimoniali, verificare le prospettive di continuità aziendale nei prossimi sei mesi, consentire il completamento della lista di controllo e del test pratico disponibili sulla piattaforma telematica gestita dalla Camera di commercio)[18]. Ma sarà poi sempre il giudice, ove si ponga un problema di corretta gestione o di responsabilità, a doverne trarre le conseguenze per stabilire se e come l’amministratore abbia diligentemente adempiuto i propri doveri. E gli esempi potrebbero moltiplicarsi[19]

Ma vi è ancora un’altra criticità della quale è bene tener conto e che, in qualche misura, si lega a quella dell’appiattimento acritico sulle risposte dell’intelligenza artificiale cui ho già prima fatto cenno. Temo che queste risposte, per il fatto stesso di essere frutto di un’analisi e di una rielaborazione di dati pregressi, possano sovente non riuscire a cogliere le esigenze di cambiamento insite nell’evoluzione sociale e nel modo di sentire dei consociati. C’è il rischio di sclerotizzare il diritto vivente o, quanto meno, di non favorirne la naturale tendenza evolutiva. Anche per questo mi sembra di grande importanza educare i giuristi a non abbandonarsi ad un uso acritico dell’intelligenza artificiale, quasi si trattasse di una sorta di comodo neopositivismo, ma mantenere ben aperta la mente per cogliere le istanze di cambiamento provenienti dalla società in cui essi operano. Ed è superfluo aggiungere che a ciò può e deve contribuire in massimo grado anche una dottrina che sia capace di svincolarsi dal mero commento della giurisprudenza pregressa e, quando occorre, sappia farsi portatrice del nuovo.      

 

6. Motivazione dei provvedimenti e controllo sociale

Mi sembra ci si debba poi porre un’altra fondamentale domanda: in qual misura l’uso di algoritmi posti a base dei sistemi di intelligenza artificiale è destinato a riflettersi sulla motivazione dei provvedimenti giurisdizionali e, quindi, sulla possibilità del relativo controllo democratico, oltre che della loro eventuale impugnazione?  In ambito endoprocessuale si potrebbe supporre che una decisione frutto dell’uso dell’intelligenza artificiale, o da questa comunque influenzata, dovrebbe poter esser censurata mettendo in evidenza le eventuali falle del sistema che la ha prodotta; ma è chiaro che ciò presuppone in chi la voglia impugnare la capacità di intendere appieno i meccanismi sui quali l’intelligenza artificiale si è basata: il che, ancora una volta, per un giurista di cultura tradizionale può risultare né semplice né ovvio. Ma l'intelligenza artificiale, soprattutto con riferimento alla giurisdizione, esige trasparenza non solo nei confronti delle parti, ma nei confronti della società che ha diritto di comprendere, commentare e valutare il modo in cui la giustizia viene amministrata. 

Forse, perciò, sarebbe opportuno inserire anche alcune regole che adeguino il codice di procedura civile a questa nuova realtà, per esempio richiedendo che nella motivazione delle sentenze il giudice dia conto del “se” ha adoperato gli strumenti di intelligenza artificiale per giungere a una certa decisione e di “come” li ha adoperati. E forse sarebbe opportuno che anche l’avvocato, il quale comunque è tenuto ad informarne il cliente per dovere di trasparenza (ex art. 13, comma 2, della legge n. 132 del 2025), nei suoi atti difensivi dichiari di essersi eventualmente avvalso di strumenti di intelligenza artificiale e di come lo abbia fatto.

Certo, resta da vedere quale sia la reale capacità di intendere davvero fino in fondo da parte di tutti, e non solo di alcuni addetti ai lavori, i “misteri dell'algoritmo” (per parte mia non saprei come altrimenti definirli). Però credo sia comunque indispensabile esplicitarli il più possibile, essendo verosimile che in futuro anche la comprensione del modo in cui l’intelligenza artificiale funziona divenga parte della cultura generale, o almeno maggiormente si diffonda. Non tutti saranno mai probabilmente in grado di penetrare quei “misteri”, ma almeno ci si potrà provare. 

E’ una sfida alla quale i giuristi, volenti o nolenti, non possono sottrarsi e sono certo che, ancora una volta, essi troveranno grande aiuto nelle pagine del Foro italiano, non solo per il suo glorioso passato, ma soprattutto per quella particolare sensibilità storico-sociale che da sempre lo ha caratterizzato e che ne fa un indispensabile strumento formativo. Mi sento, perciò, di formulare più ancora che un augurio una profezia: che per altri 150 anni il Foro italiano continuerà a svolgere la sua preziosa funzione anche in un mondo popolato dagli strumenti dell'intelligenza artificiale.


 
[1] A proposito della contrapposizione tra fautori e detrattori dell’intelligenza artificiale, peraltro, lo stesso R. Pardolesi, Intelligenza artificiale (de)generativa? Svolazzi a cavallo tra ovvietà e disincanto, in Foro it., 2025, V, 6, osserva che «quel dibattito appare decisamente sterile» e che «di quel tipo di contrapposizione manichea abbiamo piene le tasche».

[2] Sul rapporto tra intelligenza artificiale e diritto si è già sviluppata un’abbondante letteratura. Senza pretese di completezza, mi limito qui a citare, tra gli altri, S. Sciarra, Prassi, consuetudini e interpretazioni estensive. Contro un nuovo positivismo digitale, in www.questionegiustizia.it, 20/12/2025; M.R. Ferrarese, Giustizia e digitalizzazione. Verso una dialettica servo-padrone, in Politica del diritto, 2024, 347 e ss.; G. Finocchiaro, Regolare l’intelligenza artificiale, in Riv. di politica economica, 2024, 73 e ss.; Una giustizia amministrativa digitale? a cura di M. Ramajoli, Bologna, Il Mulino, 2024; A. Santosuosso e G. Sartor, Decidere con l’IA, Bologna, Il Mulino, 2024; L. Arnaudo e R. Pardolesi, Ecce robot. Sulla responsabilità dei sistemi di intelligenza artificiale, in Danno e resp., 2023, 409 e ss.; Intelligenza artificiale e diritto: una rivoluzione? Amministrazione, responsabilità, giustizia, a cura di A. Pajno, F. Donati ed A. Perrucci, Bologna, Il Mulino, 2022; D. Dalfino, Stupidità (non solo) artificiale, predittività e processo, in www.questionegiustizia.it, 3/07/2019; A. Traversi, Intelligenza artificiale applicata alla giustizia: ci sarà un giudice robot?, ivi, 10/04/2019.      

[3] «La macchina» – nota R. Pardolesi, op. cit., 10 – «impara, ossia legge e processa montagne inenarrabili di dati, sino a derivare ciò che è ragionevole aspettarsi nel contesto esaminato».

[4] A. Santosuosso e G. Sartor, op. cit., 47 e ss.

[5] N. Morgese, “Trovare nel fatto il diritto”: interpretazione del fatto, metodo casistico e banche date giuridiche nell’era dell’intelligenza artificiale, in Foro it., 2025, V, 154, auspica l’utilizzo dell’intelligenza artificiale anche «per identificare automaticamente, nell’ambito delle fattispecie definite, i casi simili o analoghi, addestrando l’algoritmo ad analizzare, mediante l’aggregazione e rielaborazione di cluster di dati, le caratteristiche fattuali e giuridiche delle decisioni giudiziarie».    

[6] Per un’analisi dei pregi e difetti del Regolamento UE 2024/1689 si vedano G. Vettori, La “crisi del diritto” e il Regolamento IA. Un esempio di positivismo inclusivo, in Foro it., 2025, V, 12 e ss.; S. Pagliantini, Base giuridica dell’AI Act ex art. 114 Tfue: l’intelligenza artificiale tra mercato e persona, ivi, V, 19 e ss.; ed E. Palmerini, La governance dei sistemi ad alto rischio nell’Artificial Intelligence Act: uno sguardo panoramico, ivi, V, 35 e ss.  

[7] L’art. 13, comma 1, della legge n. 132 del 2025 è esplicito sul punto: «L'utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all'attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d'opera».

[8] Trib. Torino, 16 settembre 2025, in Foro it., I, 2727, ha ravvisato gli estremi della responsabilità aggravata di cui all’art. 96 c.p.c. nel comportamento di un avvocato che aveva fatto cattivo uso dell’intelligenza artificiale infarcendo disordinatamente il proprio atto difensivo di citazioni inconferenti. Trib. Firenze, 14 maggio 2025, ivi, 2025, I, 1874, con nota di L. Zara, L’impiego di ChatGPT negli atti difensivi: implicazioni deontologiche e giuridiche, ha invece escluso la responsabilità del difensore per cattivo uso dell’intelligenza artificiale non ravvisandovi gli estremi della mala fede.  

[9] G. Vettori, op. cit.,14, ci ricorda che «la parola giustizia evoca l’etica, l’idea di una bilancia e di una misura, tutti aspetti propri di una specificità umana», ed aggiunge che «la giustizia non può fare a meno del digitale, ma l’assenza dell’interpretazione e della retorica, con le sue sfumature, generano un determinismo opaco incompatibile con il diritto e con i suoi principi di trasparenza e razionalità».

[10] In proposito si veda M.C. Nussbaum, Giustizia poetica, Milano-Udine, Mimesis, 2012.

[11] Si chiede giustamente G. Zaccaria, Figure del giudicare: calcolabilità, precedenti, decisione robotica, in Riv. dir. civ., 2020, 292-3, «che giustizia sarebbe quella che non si indirizza al sentimento di giustizia ma, disinteressandosi delle specificità del caso, ritiene che la delega dell’uomo alle macchine presenti un carattere di necessità?».

[12] Mi permetto, per brevità, di rinviare qui al mio scritto Ius dicere, in www.questionegiustizia.it, 13/06/2025.

[13] Cfr., in argomento, G. Zaccaria, op cit., 290, il quale evidenzia come questi impersonali servizi, disponibili su internet, rischino di snaturare anche la funzione dell’avvocatura, perché tradiscono la cultura della mediazione che è fatta di dialogo e di ricerca dell’empatia.

[14] C. Engel e J. Kruse, LLM as a Law Professor: Having a Large Language Model Writing a Commentary on Freedom of Assembly, Max Planck Institute for Research on Collective Goods, Discussion Paper 2025/14, nel sottolineare come gli strumenti di intelligenza artificiale possano agevolare il compito degli accademici, ma non sostituirlo, osservano che «The large language model does the tedious part, i.e. the structured review of case law. The professor focuses on the finish».    

[15] Si veda, in argomento, S. Toffoletto, IoT e intelligenza artificiale: le nuove frontiere della responsabilità civile (e del risarcimento), in www.questionegiustizia.it, 13/06/2018, la quale formula l’auspicio di una nuova regolamentazione del settore. Se ne occupa altresì V. Roppo, Il racconto della legge, Milano, Baldini e Castoldi, 2019, 522 e ss., mostrandosi però fiducioso nella possibilità che, almeno per il momento, il vigente apparato normativo sia sufficiente a fronteggiare anche questa problematica.  

[16] A. Clemente, La formazione dei giuristi al tempo dell’intelligenza artificiale, in www.questionegiustizia.it 28/07/2025.

[17] Per un’analisi di come l’intelligenza artificiale può incidere su molti aspetti del diritto societario, rinvio a N. Abriani, Intelligenza artificiale e diritto societario, in Enc. dir., I tematici, IX-2025, 619 e ss.  

[18] Cfr., in argomento, L. Perriello, Intelligenza artificiale e allerta: l’uso degli algoritmi per l’analisi e la stima del rischio di insolvenza, in Dir. fall. 2023, 632 e ss., il quale, a conclusione delle sue riflessioni, osserva che «L’intelligenza artificiale può essere utilmente impiegata negli assetti organizzativi e nell’allerta per raccogliere i dati dell’impresa, processarli, individuare correlazioni, predire sviluppi, ma non appare, quanto meno allo stato, in grado di sostituire l’uomo nell’iniziativa in ordine al percorso da intraprendere per affrontare la crisi».  

[19] Sui delicati problemi che può far sorgere l’utilizzo dell’intelligenza artificiale nei rapporti tra banca e cliente quanto alla valutazione del merito creditizio, si veda M. Proto, Contrattazione tecnobancaria e gestione dei dati: il consenso dell’interessato nella valutazione del merito creditizio, in Foro it., 2025, V. 114 e ss. 

[*]

Relazione svolta in occasione del convegno tenutosi il 21 novembre 2025 nella sede della Corte di Cassazione, in Roma, per celebrare i 150 anni della rivista Il Foro italiano.

26/01/2026
Altri articoli di Renato Rordorf
Se ti piace questo articolo e trovi interessante la nostra rivista, iscriviti alla newsletter per ricevere gli aggiornamenti sulle nuove pubblicazioni.
Prassi, consuetudini e interpretazioni estensive. Contro un nuovo positivismo digitale

All’avvento dell’Intelligenza artificiale non si possono opporre chiusure aprioristiche: piuttosto, occorre prestare attenzione a che i giudici non vengano isolati dentro una sorta di nuovo positivismo giuridico digitale, venendo privati di una visione assiologica e teleologica. E’ anzi l’occasione per scorgere un nuovo orizzonte, che includa il diritto all’interazione umana, da intendersi quale principio guida anche per l’evolvere del diritto costituzionale.

18/12/2025
L’intelligenza artificiale e la tutela dei diritti fondamentali. Giudice uomo o giudice robot?

Intervista a Giovanni Maria Flick, avvocato, professore, già magistrato e Presidente Emerito della Corte Costituzionale, resa al termine della relazione svolta al corso della Scuola Superiore della Magistratura su Il processo e l’intelligenza artificiale, tenutosi a Roma l’1.12.2025

17/12/2025
Giustizia e nuove tecnologie

Sabato 8 novembre 2025, ore 10:00, Fondazione Lelio e Lisli Basso con possibilità di partecipazione online

20/10/2025