Magistratura democratica
Leggi e istituzioni

Giustizia digitale e giudizio. La lunga strada dell’innovazione alla prova della Costituzione

di Simone Silvestri
giudice del Tribunale di Lucca

Intervento conclusivo del convegno Intelligenza artificiale, giustizia e diritti umani organizzato il 20 settembre 2022 da Magistratura democratica in collaborazione con la Fondazione Forense di Padova, il Dipartimento di Diritto pubblico, internazionale e comunitario e il Dipartimento di diritto privato e critica del diritto dell’Università degli Studi di Padova

1. L’avvento del digitale è un fenomeno del presente, da cui non ci si deve difendere, ma che va compreso in tutte le sue potenzialità, per evitare che da strumento di ausilio del giurista si trasformi in strumento alternativo alla sua funzione sociale.

 

2. La scrittura digitale è una scrittura matematica e come tale permette di smaterializzare i documenti, siano essi testuali, audio o video; permette una comunicazione veloce, pressoché immediata, tra mittente e destinatario; permette la comunicazione da remoto e il lavoro a distanza; permette di formare archivi dalla portata illimitata su memorie e server che occupano spazi sempre più piccoli; permette di condividere immediatamente, rendendoli accessibili a una pluralità di utenti, i contenuti archiviati su cloud o tramite una rete; permette la navigazione tra i dati attraverso collegamenti, connessioni semantiche e motori di ricerca.

Nell’ambito della giustizia queste caratteristiche offrono soluzioni in più di un campo. Ottimizzano la gestione documentale. Rispondono alla necessità di rendere trasparente e accessibile il diritto e di recuperare margini per la sua certezza[1]. Rendono circolare la conoscenza della giurisprudenza, così da ridurre il rischio dei c.d. contrasti inconsapevoli. Riducono la durata del processo sia attraverso una comunicazione veloce ed efficiente, sia attraverso la portata deflattiva offerta dalla trasparenza delle tendenze decisionali che diventano accessibili. Superano le criticità connesse alla temporanea impossibilità di una compresenza fisica delle parti processuali.

 

3. L’entusiasmo per le abilità digitali non deve, però, farci trascurare la lettura economica del fenomeno: efficienza, certezza e velocità di comunicazione sono requisiti che soddisfano il principio di legalità e di uguaglianza formale, ma anche le leggi del mercato. Lo sviluppo della scrittura digitale e delle tecnologie informatiche è, infatti, uno dei pilastri della globalizzazione e della “governamentalità”[2] neoliberale e questo comporta l’estensione del ragionamento economico anche nel campo della giustizia. La velocità e la virtualità degli scambi implicano una nuova definizione del concetto di comunità, che non è più fisica e diventa anch’essa virtuale, una comunità in cui la conflittualità sociale perde la sua forza regolativa mediata dallo Stato e prevale l’interesse del singolo. Spariscono le dimensioni di spazio e tempo come fattori di contenuto e limite delle relazioni e si afferma l’individualismo, con la conseguente sostituzione ai diritti sociali e politici degli interessi, privati o di gruppi[3]. La sovranità statuale viene sostituita dal potere di chi fa parlare i dati attraverso gli algoritmi[4]. Le nuove capacità di calcolo vengono sfruttate commercialmente con una graduale sostituzione dell’attività del legale con i software di consulenza, mediazione, risoluzione delle controversie online, creati dalle start-up[5].

 

4. La raccolta dei dati è, però, la premessa anche di un altro fenomeno. La scrittura digitale, attraverso formule matematiche applicate ai big data permette non solo di analizzare le ricorrenze statistiche, ma anche di sviluppare risposte predittive: l’aggregazione statistica di enormi quantità di dati viene letta da programmi informatici appositamente istruiti che attraverso complesse funzioni matematiche (gli algoritmi) tracciano tendenze nei fenomeni naturali e nelle interazioni sociali, e riescono, quindi, a formulare delle previsioni[6].

A differenza degli algoritmi decisori (che guardano al passato e replicano le interferenze offrendo al giurista una soluzione statisticamente possibile), gli algoritmi predittivi guardano al futuro e formulano valutazioni prognostiche: sono costruiti con l’intento di prevedere quella che sarà la decisione, la pena, il risarcimento, l’indennizzo. Applicati al diritto questi algoritmi non modificano solo i mezzi di diffusione della legge o delle decisioni, ma tendono a diventare fonte alternativa di normatività[7].

 

5. ItalgiureWeb è il software di ricerca del CED della Cassazione sviluppato nel 2003. Già dagli anni ’70, col nome di ItalgiureFind, e poi negli anni ‘90 con il nome di EasyFind, ha costituito storicamente la prima banca dati al mondo per la ricerca giurisprudenziale su base testuale della giurisprudenza di legittimità, arricchita dalla dottrina[8].

Ma per parlare di sviluppo dell’innovazione digitale in Italia occorre andare alla seconda metà degli anni ‘10, quando, da un lato diventa effettivo il processo civile telematico[9] e dall’altro, con la collaborazione delle Università e, talvolta, il partenariato delle Camere di Commercio e delle Casse di Risparmio, prendono forma, in singoli uffici, progetti di archiviazione e ricerca semantica finalizzati a raccogliere e rendere accessibile la giurisprudenza locale, ma, anche, nei casi più avanzati, a catturare dei modelli in grado di anticipare statisticamente i probabili orientamenti giudiziari.

Tutti questi progetti hanno in comune gli obiettivi di indirizzare le scelte degli operatori con effetto deflattivo, di valorizzare i sistemi di risoluzione alternativa delle controversie, di rendere consapevoli gli operatori delle tendenze giurisprudenziali, di velocizzare la giustizia e ridurre gli errori e le distorsioni decisionali, di rendere la durata del procedimento un dato prevedibile.

Peraltro, la tutela del ragionevole affidamento, ha in queste buone pratiche anche una dichiarata e immediata ricaduta sulla efficienza del mercato. Il primo campo di raccolta e trattamento dei dati riguarda, infatti, le materie del lavoro, delle imprese, del diritto bancario; nei progetti si accenna alla certezza delle relazioni industriali e sociali facendo chiaro riferimento a investimenti e conseguente livello occupazionale; tra gli obiettivi compare la performance e la eliminazione delle inefficienze di sistema. Inoltre, la creazione delle banche dati e lo sviluppo degli algoritmi sono curati da laboratori interdisciplinari della eccellenza accademica che tra i loro obiettivi hanno, dichiaratamente, la ricerca per lo sviluppo delle applicazioni della intelligenza artificiale al diritto in senso predittivo.

E così: dal lavoro elaborato dalla Terza Sezione della Corte di Appello di Bari, che prevede la redazione di schede tematiche sulla giurisprudenza consolidata in materia del risarcimento del danno, si è passati alla elaborazione di più complesse banche dati, come quella curata nel 2017 dalla Corte di Appello di Venezia[10] in materia di lavoro, diritto bancario e di impresa, fino all’ideazione di prototipi di quelle che vogliono presentarsi come vere e proprie piattaforme predittive. E’ il caso del progetto curato dall’Istituto DirPoliS (diritto, politica e sviluppo) della Scuola S. Anna di Pisa[11],  in collaborazione, prima con il Tribunale di Genova e poi, dal 2019, con quello di Pisa; del progetto avviato nel 2019 dal Tribunale di Firenze, in collaborazione con l’Università di Firenze, la CRFirenze e la Camera di Commercio, per la costruzione di un algoritmo predittivo per la mediazione chiamato Giustizia semplice 4.0; del progetto avviato nel 2021 dalla Corte di Appello di Brescia e il Tribunale di Brescia in collaborazione con l’Università di Brescia in materia di diritto del lavoro e diritto delle imprese[12]; del progetto avviato nell’ottobre del 2021 dalla Procura Generale presso la Corte di Appello di Perugia con l’Università degli Studi di Perugia finalizzato, tra l’altro, allo «studio della possibilità di godere dei vantaggi dell’intelligenza artificiale nell’amministrazione della giustizia, al fine di verificare quanto la giustizia predittiva sia concretamente utilizzabile dal giudice come persona fisica».

Nel 2021, all’interno del PNRR è stato, poi, elaborato il Piano Nazionale per la Giustizia 2022-2026, con il quale viene investito un fondo di 133 mld di euro per la Trasformazione digitale della giustizia italiana attraverso la digitalizzazione dei fascicoli e l’adozione di strumenti avanzati di analisi dei dati. Il progetto prevede: (A) la digitalizzazione degli archivi giudiziari degli ultimi 10 anni, civili in primo e secondo grado, civili e penali della Cassazione; (B) la costruzione, a partire dal 2024  e con il supporto delle Università, di un Data lake attraverso la predisposizione: di un sistema evoluto di anonimizzazione delle sentenze civili e penali; di un sistema di gestione e analisi della conoscenza del processo civile e penale; di un sistema di controllo di gestione del processo civile e penale, attraverso indicatori di performance e valutazioni tra uffici per individuare aree di inefficienza e permettere riorganizzazioni; di un sistema di statistiche avanzate; di una ricerca automatizzata della relazione vittima/autore del reato per crimini di forte allarme sociale[13].

 

6. Il veloce sguardo sulle iniziative in campo mostra, con tutta evidenza, l’attuale debolezza dello sviluppo della giustizia digitale italiana. La trattazione digitale del processo è una realtà nel processo civile, ma non ancora nel processo penale, dove l’applicativo sviluppato per il Trattamento Informatico degli Atti Processuali (TIAP), dopo sei anni di investimenti nella formazione e nella manutenzione, è in fase di sostituzione[14]. I progetti di costruzione e raccolta di banche dati dovuti all’iniziativa di uffici virtuosi, ma non sono coordinati e rischiano di ampliare il gap della qualità del servizio giustizia tra eccellenza giudiziaria e uffici storicamente più arretrati e operanti in territori economicamente marginali come quelli meridionali. Il progetto previsto dal PNRR, oltre ad avere una scadenza ravvicinata e obbligare gli uffici ad una performance acritica, rischia di tradursi, in fatto, nel finanziamento di progetti di consorzi universitari, spesso destinati ad alimentare borse di studio di specializzandi e tra loro non coordinati.

 

7. Nondimeno, è importate evidenziare quelle criticità che potrebbero definirsi strutturali. (A) Accanto al valore positivo della risposta alla domanda di prevedibilità delle interpretazioni generali delle norme, si annida il rischio connesso all’ambizione economicista, che per sua natura tende a superare il limite della prevedibilità del diritto, per arrivare a strutturare interazioni tali da consentire la prevedibilità della singola decisione. Non è certamente ancora il caso dei sistemi di ricerca elaborati nei progetti in atto, ma è, comunque, necessario confrontarsi con le potenzialità dello strumento e queste, già ora sono in grado di permettere l’affinamento di sistemi di calcolo cd. di machine learning in cui è la stessa macchina ad alimentare i dati e a sviluppare ulteriori risposte sulla base delle interazioni tra i dati conosciuti e già elaborati, fino a calcolare una soluzione cucita sullo specifico tipo di autore o, magari, di giudice. (B) L’introduzione del criterio della performance, se non calibrato rispetto alla qualità del lavoro, rischia di rimodulare il metodo di lavoro del giudice in un’ottica produttivistica e performativa favorendo un adeguamento non ragionato al precedente (il cd. effetto gregge), a maggior ragione se poi il criterio viene spostato dall’ambito della migliore organizzazione dell’ufficio a quello della valutazione del lavoro del magistrato. (C) L’obiettivo della riduzione della durata dei procedimenti e quello della riduzione dei contrasti giurisprudenziali, se utilizzati come dati orientati alla valutazione del singolo magistrato, fanno della velocità della scrittura digitale e della disponibilità di grandi banche dati, strumenti che rischiano di essere utilizzati dal giudice non per liberare il tempo-lavoro dai passaggi meccanici o ripetitivi e destinarlo alla riflessione e alla qualità dell’interpretazione, ma per soddisfare un risultato statistico. Anche qui rischia di affermarsi il ragionamento economico che affida la regolazione non all’interesse generale ma a quello individuale. (D) La qualità della risposta alla domanda di certezza diritto è geneticamente incompleta poiché risente della natura delle autorità pubbliche che si sono attivate. La Commissione dell’Unione europea, il Ministero, le Corti di Appello e i Tribunali si sono mossi in qualità di soggetti di Pubblica Amministrazione rispondendo, a ragione, a finalità di efficienza del servizio e di buona amministrazione. Il ragionamento algoritmico, invece, non copre il compito di emancipazione che l’art. 3 comma 2 della Costituzione affida alla Repubblica (e quindi anche al giudice attraverso l’interpretazione della norma). Questo accade perché l’algoritmo non vede, e non è capace di vedere, quegli ostacoli e replica, nel suo calcolo, le dinamiche sociali (parte forte/parte debole) che sono date.

 

8. Le scelte sulla digitalizzazione non hanno solo una valenza organizzativa e strumentale, ma hanno una ricaduta anche sull’indipendenza e l’autonomia del magistrato. Eppure, a queste scelte non partecipa oggi in modo effettivo il Consiglio Superiore della Magistratura. Le competenze della Settima Commissione, della Struttura Tecnica per l’Organizzazione, dei RID (magistrati referenti distrettuali per l’informatica), dei Magrif (magistrati referenti locali) non vanno oltre la raccolta di dati sulla efficienza statistica degli uffici e sulla diffusione degli applicativi governativi, mentre non sono previsti strumenti per svolgere una efficace attività di controllo e indirizzo della spesa,  sulla necessaria efficienza della dotazione digitale del personale, sulla necessaria efficienza degli applicativi ministeriali, sulla effettiva alfabetizzazione digitale del personale della giustizia. Tutte queste materie sono di competenza del Ministero che opera attraverso la Direzione Generale per i Sistemi Informativi e Automatizzati e non sono, di fatto, oggetto di indirizzo e controllo da parte del CSM, ma è chiaro che la digitalizzazione, implicando contenuti e scelte di tipo valoriale, non può essere considerata al pari delle altre dotazioni, senza ricadute negative sul principio di separazione dei poteri.

 

9. All’estero le abilità della scrittura digitale oltre ad essere sfruttate economicamente dalle imprese legaltech, hanno trovato applicazione in progetti utilizzati in alcune corti, anche se, almeno negli Stati membri del Consiglio d’Europa, i giudici sembrano scettici rispetto all’uso pratico e quotidiano di software predittivi. In Olanda è stato avviato un progetto di gestione online dei casi di mediazione in controversie di carattere civile e, dal 2013. la procedura digitale è obbligatoria per gli avvocati in materia civile e commerciale. In Francia, dal 2016, la legge per la Repubblica digitale dispone la generale pubblicazione gratuita di tutte le decisioni giudiziarie e, nel 2020, è stato autorizzato il trattamento automatizzato dei dati personali per lo sviluppo di un algoritmo predittivo nelle decisioni relative al risarcimento delle lesioni personali. Nelle corti di appello di Rennes e Douai è stato sperimentato con scarso successo il programma Predictice per prevedere orientamenti decisionali del giudice su definizione della causa e ammontare risarcimenti. In Inghilterra l’University College of London ha sperimentato l’efficacia di un programma predittivo sull’esito delle decisioni della Corte Edu adita per la violazione degli artt. 3, 6 e 8 della Convenzione (ma l’esito non è stato quello atteso poiché solo il 79% delle previsioni sono risultate corrette). In Estonia è stato attivato un progetto pilota per l'impiego dell'intelligenza artificiale nelle controversie di valore sino a 7.000 euro con possibilità di proporre appello.

In USA vengono, invece, utilizzati dalla corti federali numerosi programmi predittivi, tra i quali Compas, utilizzato per il calcolo della probabilità di recidiva per assumere decisioni su trattamento penitenziario e accesso alle misure alternative, e oggetto della discussa sentenza del 2016 State of Wisconsin v. Eric Loomis[15].

 

10. Lo sviluppo dell’Intelligenza Artificiale nel campo del diritto rappresenta anche una trasformazione simbolica e agisce secondo un modello determinista, giacché il trattamento dei big data consiste in una elaborazione statistica secondo interferenze dedotte dalle leggi di probabilità.

Nel trattamento gli elementi del giudizio vengono disarticolati (si opera la cd. digital disruption) e tra di essi vengono cercate nuove correlazioni statistiche estranee alla logica argomentativa dove diritto e giurisprudenza diventano dati particolari tra gli altri dati[16]. L’utilizzo di un sistema di calcolo comporta alcuni importanti effetti: (A) scompaiono spazio e tempo del giudizio e con essi la teatralità del processo. La ripetizione rituale ha una valenza simbolica che gestisce la violenza attraverso lo spostamento dei conflitti in un quadro comune di natura sociale costituito dal Tribunale, dove la realtà assume un nuovo significato, di ordine collettivo[17]. L’iterazione informatica mira, invece, ad una ripetizione sempre uguale di procedure del tutto definite in anticipo; la riproduzione non prende in considerazione la componente sociale della giustizia, si concentra sull’efficacia e rovescia la soluzione dei conflitti sul lato privato, manca la dimensione collettiva alla risoluzione dei conflitti; (B) il modello determinista toglie spazio alla parola e alla dimensione interpretativa del diritto. Manca un luogo dove poter sospendere la regola, potere derogarvi per motivi di interesse generale o di rispetto dei diritti fondamentali. Con la scomparsa della possibilità di una deroga, scompaiono la sovranità e l’equità, con la scomparsa dell’imperfezione scompare lo spazio di gioco del diritto[18]. (C) Le sfere di attività sono deistituzionalizzate. Si passa da un ordinamento dove l’autorità è rappresentata dallo Stato a un sistema orizzontale ove le parti sono variabili e in regime di reciproco condizionamento. Il controllo degli individui non avviene più dall’esterno, ma dall’interno, orizzontalmente, non più tramite ingiunzioni ma interazioni, non più in una teatralità ma in una interconnessione in rete, non più tramite forme, ma tramite una performatività. (D) Il modello determinista è un modello conservativo e crea performatività. Il trattamento dei big data tende a rafforzare le linee giurisprudenziali già affrontate con un esito di conservazione sociale. (E) Nella scrittura digitale dove tutto viene conservato per essere elaborato non c’è spazio per l’oblio e non c’è limite alla memoria e quindi non sono possibili perdono e redenzione[19]; (F) La validazione del procedimento non necessita di un potere pubblico. Così come accade nel mercato lo sviluppo dell’IA porta a sostituire l’avvocato con la legaltech e il giudice terzo (in quanto fallibile e inaffidabile) con la blockchain, ovvero una tecnica di validazione diffusa e orizzontale che non richiede alcun organo di controllo e non è falsificabile. La blockchain elimina gli intermediari e sfida il ruolo di terzo garante, la sovranità statale, e la sostituisce con organismi privati che certificano le operazioni[20].

 

11. Ai rischi connessi all’utilizzo dell’intelligenza artificiale la normativa internazionale ha risposto dettando una regolamentazione per principi generali, talvolta eccessivamente generica o non immediatamente applicabile. Così: l’obiettivo 16 dell’Agenda 2030 dell’ONU richiede lo sviluppo di attenzione sulla diffusione delle tecnologie e sull’impatto della tecnologia sulla uguaglianza delle condizioni di accesso dei cittadini ai servizi, alle informazioni e alle piattaforme; la Direttiva UE 680/2016 prevede il divieto di decisioni unicamente basate su un trattamento automatizzato compresa la profilazione, che produca effetti giuridici negativi per l’interessato; la Carta Etica europea sull’uso dell’IA nei sistemi giudiziari elaborata nel 2018 dalla Commissione per l’efficacia della giustizia del Consiglio d’Europa (CEPEJ) classifica le IA utilizzate per l’analisi della giurisprudenza tra le IA deboli, ovvero tra quelle che hanno funzione ausiliaria per l’uomo e forniscono prestazioni specifiche qualitativamente equivalenti e quantitativamente superiori a quelle umane; il Libro bianco sulla IA del 2020 e la proposta di regolamento elaborata dalla Commissione Europea 2021 classificano i sistemi di intelligenza artificiale destinati ad assistere le autorità giudiziarie come sistemi ad alto rischio che comportano rischi significativi per salute, sicurezza e diritti fondamentali. In tali sistemi è richiesta la qualità elevata dei dati utilizzati per l’addestramento dei modelli (i dati devono essere pertinenti, rappresentativi, esenti da errori e completi, i sistemi devono essere soggetti a validazione e verifica, l’attività di addestramento deve essere documentata e tracciabile, il loro funzionamento soggetto a controllo umano).

Sono principi comuni alla normativa: il rispetto dei diritti fondamentali dell’uomo; il principio di non discriminazione, il divieto di non accentuare la discriminazione tra gruppi e individui; la qualità e sicurezza dei dati (devono provenire da fonti certificate e essere intangibili); la trasparenza, imparzialità, verificabilità esterna e certificazione delle operazioni e la disponibilità di un ambiente tecnologico sicuro; la garanzia della neutralità e la tutela della integrità intellettuale; la possibilità del controllo delle scelte da parte dell’utente; la necessità di un approccio graduale all’integrazione dell’IA nei sistemi giudiziari.

 

12. Concludendo. I benefici dell’innovazione digitale nella giustizia italiana sono innegabili. La progressiva trasformazione del linguaggio in flusso di dati non è un’opzione, da poter scartare, ma un fenomeno sociale con il quale occorre confrontarsi per articolare un ragionamento che ne faccia un buon uso secondo i principi della Costituzione.

Per l’art. 25 Cost. nessuno può essere distolto dal giudice precostituito per legge, mentre l’art. 101 Cost. sancisce che la giustizia è amministrata in nome del popolo italiano e i giudici sono soggetti soltanto alla legge. Il rispetto di questi principi implica che le applicazioni della giustizia digitale non possono sostituire il giudizio dell’uomo, ma solo essere serventi poiché all’algoritmo non può essere riconosciuto come fonte di diritto. Il limite oltre cui non può spingersi la giustizia predittiva è la conservazione del contesto umano della giustizia, il ruolo del giudice come interprete e la dimensione umana della sua percezione (linguaggio, relazioni, parole, emozioni) in modo da conservarne la capacità di mediazione e pacificazione. Non sono, quindi, devolvibili alla macchina l’attività interpretativa, né tutte quelle valutazioni che presuppongono l'applicazione di concetti elastici o di clausole generali o ancora che impongono il ricorso a un giudizio per valori. Vi sono, inoltre, delle singolarità del caso che solo un decisore umano è in grado di rilevare e che lo porterebbero a operare una distinzione e che la macchina non è in grado di eseguire.  Non è, in definitiva, devolvibile ad una macchina la decisione del caso specifico.

L’art. 104 Cost. definisce la magistratura un ordine autonomo e indipendente da ogni altro potere. È, pertanto, necessario che (così come serve un’authority indipendente nel campo delle applicazioni destinate al mercato e alla libera professione), l’autorità depositaria del potere di controllo dei progetti di digitalizzazione del processo e del giudizio sia il CSM. Il Consiglio, fino ad oggi estraneo sia al piano di digitalizzazione che alla pianificazione delle dotazioni, di fronte a questo nuovo scenario deve farsi carico del ruolo di garante costituzionale del processo innovativo. La digitalizzazione, come strumento per una giustizia trasparente ed efficiente, deve essere promossa e sviluppata in modo uniforme sul territorio e secondo un progetto comune. Il personale giudiziario deve essere digitalmente preparato e fornito di strumentazione efficiente.

Per l’art. 111 Cost. la giurisdizione si attua mediante il giusto processo regolato dalla legge. Tutti i provvedimenti giurisdizionali devono essere motivati. Questo significa che occorre porre attenzione alla qualità dei dati. Occorre garantire l’accessibilità della struttura dell’algoritmo poiché questa non è neutra e deve essere verificabile sia in ordine alla qualità del dato che in relazione a possibili errori di progettazione. Questo significa porre dei limiti ai diritti di proprietà intellettuale dei programmatori; favorire lo sviluppo pubblico degli algoritmi o l’uso di open source. Significa porre attenzione ai profili discriminatori poiché l’algoritmo può avere un esito discriminatorio se fondato su dati personali sensibili, tra cui la razza e l’estrazione sociale; significa che il calcolo dell’algoritmo non può derogare il principio del contraddittorio: va mantenuto il contraddittorio come possibilità di verifica con metodi alternativi e di verificabilità della struttura dell’algoritmo e dell’indipendenza dei programmatori; significa che il calcolo dell’algoritmo anche quando è servente non può derogare al rispetto dell’obbligo motivazionale.

Dice Calamandrei: «la giustizia è [...] creazione che sgorga da una coscienza viva, sensibile, vigilante e umana. È proprio questo calore vitale, questo senso di continua conquista, di vigile responsabilità che bisogna pregiare e sviluppare nel giudice»[21].

 


 
[1] La certezza del diritto è cardine del principio di legalità, del principio di uguaglianza, e della ragionevole prevedibilità della norma.

[2] Con il termine governamentalità si intende quella specifica «arte del governo» che attraverso un insieme di «istituzioni, procedure, analisi, riflessioni, calcoli e tattiche» assicura la presa in carico delle popolazioni e garantisce il «governo dei viventi» (M. Foucault, La governamentalità, «Aut-aut», 167-168 (1978), 28).

[3] Cfr. A. Garapon, J. Lassegue, La giustizia digitale. Determinismo tecnologico e libertà, Il Mulino, 2021, pag. 42.

[4] Con l’acronimo G.A.F.A.I.M. (Google-Amazon-Facebook-Apple-IBM-Microsoft) si indicano le cinque più importanti multinazionali delle tecnologie dell’informazione e della comunicazione.

[5] Nel 2018 secondo village-justice.com si contavano 166 imprese legal-tech in Francia, e 300 in USA.

[6] I software elaborati dalle legaltech «formalizzano non solo le regole di applicazione della regola, ma permettono anche di prevedere il trattamento che l’istituzione riserva ai casi particolari. I big data pretendono infatti di conferire una consistenza non più solo giuridica, ma anche matematica, a una realtà che i giuristi potevano raggiungere solo tramite un sapere intuitivo, e che la statistica affrontava solo in modo troppo generale». Cfr. A. Garapon e J. Lassegue, ibidem, pag. 92.

[7] Il professore di diritto a Harward e avvocato statunitense Lawrence Lessing è l’autore di un celebre articolo, Code is Law. On Liberty in Cyberspace, pubblicato nel 2020 su Haward Magazine.

[8] Il suo sviluppo si deve principalmente all’impegno di Renato Borruso, Presidente Aggiunto Onorario della Corte di Cassazione e docente di informatica giuridica, direttore del CED della Corte di Cassazione.

[9] Il PCT ha preso avvio ufficialmente il 30 giugno 2014.

[10] La Corte di Appello di Venezia con la collaborazione dell’Università Ca’ Foscari e della società Deloitte dal 2017 ha avviato un progetto per rendere trasparenti gli orientamenti e prevedibili le decisioni e la loro durata, per ridurre la domanda di giustizia nelle materie che più incidono sulla economia del territorio (lavoro, diritto bancario e di impresa). Dal 2021 il progetto si è sviluppato con l’utilizzo della IA per estrarre le decisioni con parole chiave e algoritmi.

[11] l’Istituto DirPoliS della Scuola Sant’Anna di Pisa gestisce il LIDER-Lab (Laboratorio Interdisciplinare Diritti e Regole), già impegnato nei progetti Text mining e misurazione della criminalità e Predictive Justice. Sul sito del Tribunale di Pisa si legge che la convenzione firmata il 25.02.2021 tra il Tribunale di Pisa e la Scuola Sant’Anna prevede che il LIDER-Lab provvederà ad analizzare il materiale giurisprudenziale attraverso tecniche di machine learning e analisi dei big data e alla costruzione di un archivio giurisprudenziale di merito anonimizzato, navigabile con modalità semantiche.

[12] Il sito giustiziapredittiva.unibs.it recita: «Il sito presenta, raggruppate per aree tematiche [diritto del lavoro, diritto delle imprese ndr], selezionate decisioni del Tribunale Ordinario di Brescia e della Corte di Appello di Brescia. Una volta scelta l’area tematica di interesse, si può percorrere, secondo un grado crescente di approfondimento, un “itinerario”, guidato e teso ad individuare la vicenda giudiziaria più appropriata, per identità o similitudine, a quella di proprio interesse, “arrivando”, alla fine di quell’itinerario, alla soluzione cercata. Tutto ciò utilizzando formule linguistiche e grafiche essenziali. Lo studio e la “mappatura” delle vicende giudiziarie è effettuato con la collaborazione del Dipartimento di Giurisprudenza dell’Università degli Studi di Brescia; la relativa resa informatica e la realizzazione dei sito è stata effettuata con la collaborazione del Dipartimento di Ingegneria dell’Informazione della medesima Università». Il Presidente della Corte di Appello di Brescia, dott. Claudio Castelli ha dichiarato alla rivista online dell’ANM lamagistratura.it: «Il progetto vuole fornire a utenti e avvocati due dati fondamentali per la certezza non solo del diritto, ma delle stesse relazioni industriali e sociali: la durata prevedibile di un procedimento in una data materia e gli orientamenti esistenti nei diversi uffici». Sul sito giustiziabrescia.it della Corte di Appello di Brescia è attiva una sezione denominata «Un inizia di giustizia predittiva su …» articolata in due sezioni «Protezione internazionale» e «Licenziamenti disciplinari».

[13] Cfr. Slide_DOG_PNRR_Capitale_umano del Ministero della Giustizia, DIGSIA.

[14] Il TIAP è stato individuato il 26 gennaio 2016 come gestore documentale unico nazionale con il recupero del patrimonio documentale acquisito con gli altri sistemi testati sul territorio nazionale (AURORA, DIGIT, SIDIP).

[15] La Corte Suprema del Wisconsin, dopo aver stabilito che l’uso di COMPAS può essere legittimo nell’ambito dei giudizi di determinazione della pena, ha indicato i limiti e le cautele che devono accompagnare tale impiego da parte degli organi giudicanti. Si è infatti stabilito che tali software possono essere considerati fattori rilevanti in questioni quali 1) la comminazione di misure alternative alla detenzione per gli individui a basso rischio di recidiva; 2) la valutazione della possibilità di controllare un criminale in modo sicuro all’interno della società, anche con l’affidamento in prova; 3) l’imposizione di termini e condizioni per la libertà vigilata, la supervisione e per le eventuali sanzioni alle violazioni delle regole previste dai regimi alternativi alla detenzione. Ribadendo la necessità che il giudice applichi i risultati COMPAS facendo esercizio della propria discrezionalità sulla base del bilanciamento con altri fattori, la Corte ha confermato che l’uso dello strumento non può riguardare il grado di severità della pena sulla base di circostanze attenuanti od aggravanti, né la decisione sull’incarcerazione dell’imputato. Ha specificato infatti che lo scopo di COMPAS è quello di individuare le esigenze del soggetto che deve scontare la pena e di valutare il rischio di reiterazione del reato. Sulla scorta delle limitazioni enucleate, i giudici supremi hanno concluso che nel caso di specie il punteggio di rischio è stato solo uno dei numerosi fattori considerati dal tribunale nel determinare la pena, fattori che Loomis non aveva contestato. La Corte ha osservato che, sebbene si fosse fatto riferimento ai risultati COMPAS nel determinare la pena, i giudici avevano attribuito al fattore di rischio un peso minimo, affermando addirittura che la sentenza non sarebbe stata diversa in assenza dei dati forniti dallo strumento. La sentenza riveste importanza in quanto rigetta le eccezioni dell’imputato ad essere giudicato secondo i principi di un giusto processo fondate sulla impossibilità di confutare l’uso dei dati processati da COMPAS, in quanto la copertura del brevetto e del segreto industriale avrebbe impedito l’accesso alle informazioni ed ai meccanismi di rielaborazione attuati dal software e sul rischio che COMPAS attribuisca importanza sproporzionata ad alcuni fattori, come ad esempio il background familiare o il livello di educazione dei responsabili di crimini minori, oppure l’appartenenza ad una certo gruppo etnico o al genere.

[16] Cfr. A. Garapon e J. Lassegue, Ibidem, pag. 101.

[17] Cfr. A. Garapon e J. Lassegue, Ibidem, pag. 151.

[18] Cfr. A. Garapon e J. Lassegue, Ibidem, pag. 137.

[19] Cfr. A. Garapon e J. Lassegue, Ibidem, pag. 134.

[20] Cfr. A. Garapon e J. Lassegue, Ibidem, pag. 125.

[21] P. Calamandrei, Processo e democrazia. Le conferenze messicane di Piero Calamandrei, Pacini Editore, 2019, pag. 63. 

13/10/2022
Altri articoli di Simone Silvestri
Se ti piace questo articolo e trovi interessante la nostra rivista, iscriviti alla newsletter per ricevere gli aggiornamenti sulle nuove pubblicazioni.
Giustizia digitale e giudizio. La lunga strada dell’innovazione alla prova della Costituzione

Intervento conclusivo del convegno Intelligenza artificiale, giustizia e diritti umani organizzato il 20 settembre 2022 da Magistratura democratica in collaborazione con la Fondazione Forense di Padova, il Dipartimento di Diritto pubblico, internazionale e comunitario e il Dipartimento di diritto privato e critica del diritto dell’Università degli Studi di Padova

13/10/2022
Il leading role della giurisprudenza comparata in materia di discriminazioni algoritmiche subite dai lavoratori della gig economy

L’utilizzo di algoritmi decisionali nell’organizzazione del lavoro relativo alle piattaforme di intermediazione lavorativa presenta non pochi rischi di discriminazione ai danni dei lavoratori. In Europa, la giurisprudenza anticipa le prese di posizione dei Legislatori nazionali, in attesa di una regolamentazione da parte dell’Unione del ricorso all’Intelligenza Artificiale anche in questo campo.

11/11/2021
Lo studio di fattibilità di un nuovo quadro normativo sulla concezione, lo sviluppo e l’applicazione dei sistemi di Intelligenza Artificiale sulla base delle norme del Consiglio d’Europa. Il lavoro del Comitato ad hoc sull’intelligenza artificiale del CdE

Nel corso della sua terza riunione plenaria, il 15-17 Dicembre 2020, il Comitato Ad hoc sull’intelligenza artificiale del Consiglio d’Europa (CAHAI) ha adottato all’unanimità lo studio di fattibilità di un quadro normativo sulla concezione, lo sviluppo e l’applicazione dell’intelligenza artificiale (IA) fondato sulle norme del Consiglio d’Europa in materia di diritti dell’Uomo, democrazia e stato di diritto, così realizzando un compito primario del suo mandato. Lo studio di fattibilità espone le ragioni della necessità di un tale quadro normativo (I), iniziando al contempo una riflessione sui suoi elementi costitutivi (II), che il CAHAI si propone di affinare nel 2021, in vista della presentazione delle sue conclusioni al Comitato dei Ministri del Consiglio d’Europa. Tale istanza prenderà la decisione finale sullo strumento giuridico internazionale che sarà elaborato a partire dal 2022: tra le diverse opzioni possibili, quella di un trattato internazionale (III). 

28/04/2021
Lo smartphone non ci salverà la vita
La tecnologia è uno strumento formidabile. Ma il soluzionismo digitale rischia di essere un’illusione. Non può essere la tecnologia a orientare le nostre scelte; al contrario, debbono essere le nostre scelte consapevoli ad orientare la tecnologia
19/05/2020
Questione Giustizia ritorna sul tema dell’uso dell’intelligenza artificiale nei processi (a cui ha già dedicato un obbiettivo nel n.4/2018 della Rivista trimestrale) pubblicando il contributo che segue dedicato specificamente al processo penale
18/10/2019
Stupidità (non solo) artificiale, predittività e processo
Alcune considerazioni critiche a partire dallo studio di Jordi Nieva Fenoll su Intelligenza artificiale e processo
03/07/2019
Intelligenza artificiale applicata alla giustizia: ci sarà un giudice robot?
L’intelligenza artificiale (IA) è ormai utilizzata nei settori più disparati. L’IA potrà trovare applicazione anche in ambito giudiziario e, in particolare, nell’ambito della cd. “giustizia predittiva” per formulare previsioni sull’esito di una causa, o anche, in un prossimo futuro, per affiancare il giudice nella fase decisoria?
10/04/2019
Cepej, adottata la prima Carta etica europea sull'uso dell'intelligenza artificiale (AI) nei sistemi giudiziari
L'auspicio è che questi principi diventino un punto di riferimento per i professionisti del diritto, le istituzioni e gli attori politici che si trovano ad affrontare la sfida di integrare le nuove tecnologie basate sull' IA nelle politiche pubbliche o nel loro lavoro quotidiano
07/12/2018