Magistratura democratica
Leggi e istituzioni

L’intelligenza artificiale e la tutela dei diritti fondamentali. Giudice uomo o giudice robot?

di Antonella Di Florio
già consigliera di Cassazione

Intervista a Giovanni Maria Flick, avvocato, professore, già magistrato e Presidente Emerito della Corte Costituzionale, resa al termine della relazione svolta al corso della Scuola Superiore della Magistratura su Il processo e l’intelligenza artificiale, tenutosi a Roma l’1.12.2025

1) Prendo le mosse da una sua opera del 2022 (L’algoritmo d’oro e la Torre di Babele, ed Balduini – Castoldi) nel quale venivano già segnalati alcuni aspetti problematici dell’intelligenza artificiale. Il libro è stato pubblicato subito dopo la fine della pandemia, tempo in cui l’uso dell’informatica e dell’intelligenza artificiale (da ora AI) è stato ampiamente rafforzato per sostituire una serie di attività che non potevano essere svolte in presenza: i vantaggi che sono stati riscontrati e l’evoluzione tecnologica hanno indotto a mantenere l’utilizzo diffuso dell’AI, utilizzo che sta modificando profondamente l’assetto dell’organizzazione, dell’amministrazione pubblica, dell’organizzazione dell’impresa e, per ciò che ci interessa più specificamente, della giustizia. Le previsioni ed i timori prospettati nel 2022 si sono realizzati. 

Posto che i tempi del cambiamento che lei aveva allora preconizzato hanno subito una incontrollabile accelerazione, è possibile che la gestione del sistema complessivo sfugga dal controllo umano?

L’intelligenza artificiale sta modificando profondamente l’assetto dell’organizzazione e della amministrazione pubblica come già ha fatto nell’ambito dell’organizzazione di impresa. 

Le tecnologie elaborate ed applicate mirano non solo al risparmio di tempo e di costi, ma alla progettazione di nuove forme di erogazione dei servizi pubblici e della giustizia attraverso due profili: l’automazione “intelligente” rispetto al lavoro ripetitivo, ed il supporto alle decisioni delle scelte di politica attiva anche nelle funzioni più complesse attraverso la collaborazione con gli operatori umani, l’integrazione e la sostituzione di questi ultimi. 

I vantaggi innegabili di questa nuova tecnologia si confrontano con i suoi rischi di opacità, di irresponsabilità, di controllo sociale e di violazione dei diritti umani, nonché di incidenza sull’occupazione; e con i rischi di inerzia e/o di paura nell’affrontare le novità. 

Sono necessarie infrastrutture digitali solide, banche-dati sicure, formazione del personale; nonché garanzie di trasparenza e dialogo fra governo, società civile e imprese in un contesto di consenso diffuso: dalla riforma fiscale e dell’amministrazione pubblica alla lotta alla corruzione, agli appalti pubblici e alla giustizia.

I problemi e i riflessi che derivano da questa “rivoluzione” sono condizionati anche da molteplici fattori e influenze esterne. 

Questo panorama problematico e preoccupante propone una serie di interrogativi nel settore della giustizia. Fra essi, ad esempio, la partecipazione del cittadino; il diritto di difesa nei procedimenti; le modalità di utilizzo dell’intelligenza artificiale; il divieto di controllo dell’attività lavorativa ex art. 4 dello Statuto dei lavoratori; il problema della responsabilità civile, penale e amministrativa e della sostituzione di esse per il controllo sull’operato dell’AI Effettivamente, nel giro di soli tre anni c’è stata una enorme accelerazione, dovuta al coinvolgimento di diversi piani di intervento, che impone una costante attenzione agli sviluppi concreti ed alla reale efficacia della normativa europea e nazionale in relazione alla tutela dei diritti fondamentali: il caveat generale che ci deve guidare è che dobbiamo sapere cosa può fare l’AI e come dobbiamo governarla. 

Non dobbiamo perdere, per un malinteso senso di efficienza, la necessità di ricorrere ad una interpretazione sistematica fondata sui principi tradizionali che dobbiamo continuare a difendere: risulta prezioso, al riguardo, l’appello del pontefice Leone XIV a difendere la centralità della persona, della dignità umana, della giustizia e del valore del lavoro dinanzi alla velocità delle nuove sfide e del carattere invasivo delle nuove tecnologie in tutti i campi della vita. A ciò deve aggiungersi, in tema di giustizia, la forte perplessità sulla ambiguità, da una parte, della “riserva di giustizia” per il giudice e, dall’altra, la tendenza a potenziare le prerogative ed i compiti della intelligenza artificiale “agentica” (riferita alla sua capacità decisionale). 

 

2) A proposito della normativa vigente, la diffusione dell’AI e l’impatto sulla vita delle persone ha imposto una regolamentazione diffusa sia delle regole tecniche che di quelle giuridiche che potesse uniformarne l’applicazione in tutti i paesi della UE.

Il Reg. 1689/2024 afferma il principio che il sistema di AI deve essere “antropocentrico” ed affidabile, e deve garantire un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea, richiamando la democrazia, lo Stato di diritto e la protezione dell’ambiente (contro gli effetti nocivi dei sistemi di AI nell’Unione) e promuovendo l’innovazione. 

E’ compatibile l’innovazione tecnologica sempre crescente con le garanzie sinora enunciate? Come devono tradursi in concreto tali tutele, soprattutto rispetto ai diritti fondamentali? 

Per riassumere a grandi linee il percorso verso il “mondo nuovo” della rivoluzione digitale occorre muovere dalla ambiguità e genericità della sua “definizione onnicomprensiva”, proposta dall’AI Act europeo e ora anche nazionale. 

La premessa è la “scoperta” dei big data; del loro vantaggio competitivo nel marketing commerciale e politico; della loro diffusione con il social network e le piattaforme digitali; della grandezza e del valore economico rappresentato dalla loro velocità, varietà, volume. 

Contribuisce a quel valore la funzione dei big data di “alimentare” l’intelligenza artificiale in tutti i settori del vivere umano, la loro possibilità di manipolazione per generare un grande potere sociale, commerciale, economico, politico e, soprattutto, un grande profitto. 

È noto il mutamento profondo degli ultimi venticinque anni sia nel mondo della informazione, sia nella sua trasformazione da valore (per i suoi contenuti) a prodotto strategico, politico e commerciale, sia nel ruolo che hanno assunto le piattaforme per l’organizzazione capitalistica del mercato. 

È diffusa l’inquietudine per l’utilizzo della intelligenza artificiale in modo incontrollato e forse incontrollabile, e per le sue conseguenze possibili o temute sul comportamento umano a fronte dei suoi molteplici e innegabili vantaggi. 

Da ciò la richiesta e la progressiva sensibilizzazione verso la ricerca di regole, limiti e controlli nell’estrazione e nella governance dei big data

Lo sviluppo di questa nuova realtà ha portato all’apertura di un nuovo fronte di ordine etico che concerne, in particolare, le decisioni che possono essere prese dalla macchina in conseguenza del suo autoapprendimento e l’equilibrio del rapporto tra macchina e persona umana a seguito della crescita delle potenzialità della prima. 

Alla richiesta ormai pressante di regole – nell’alternativa tra etero e self-regulation – l’Unione Europea ha cercato di rispondere con l’AI Act, da essa approvato per prima a livello mondiale. 

Dopo una lunga e faticosa elaborazione, ha regolato l’intelligenza artificiale con lo scopo di rispettare e tutelare i diritti fondamentali e la dignità delle persone con un modello, seguito ora dall’Italia attraverso la legge delega n. 132/2025. 

La scelta dell’Unione Europea, e ora dell’Italia, segue una traccia già ampiamente segnata – se pure con molte difficoltà – nel percorso verso l’unità europea attraverso la ricerca del difficile equilibrio tra interessi (soprattutto economici, ma anche politici) e diritti. 

Sotto questo aspetto la scelta merita condivisione ed apprezzamento: risponde ad una esigenza di etica laica – non soltanto morale e religiosa – ispirata al valore della persona e alla sua tradizione consolidata nella storia europea e nel nostro passato. 

Tuttavia ciò non esclude il diritto-dovere di esprimere dubbi e perplessità di fronte ad un futuro (anzi un presente) che non sappiamo cosa in realtà ci riserva sotto molteplici aspetti: da quello geopolitico a quello sociale, culturale ed economico. 

Un futuro che, perciò, giustifica comunque il richiamo sin da ora a quei principi consolidati che hanno rappresentato il nucleo di quelle che giustamente definiamo storia, civiltà e cultura europee. 

Per rispondere alla domanda, non può che rinforzarsi la funzione centrale del “giudice uomo” alla quale deve inevitabilmente associarsi la sua assunzione di responsabilità su tutti i segmenti processuali necessari per giungere alla decisione finale.

 

3) Il Regolamento sopra citato prevede che il sistema giudiziario debba essere considerato fra quelli “ad alto rischio”, meritevole, pertanto, di tutele rinforzate: in sostanza, l’AI dovrebbe essere priva di un ruolo sostitutivo dell’intelligenza umana e costituire un mero supporto e ne è prevista l’utilizzazione soprattutto nelle attività “accessorie” che non richiedono un apprezzamento soggettivo, insuscettibile di essere “replicato” o “previsto” dall’algoritmo. 

E’ possibile che si verifichi uno sconfinamento fra attività accessoria ed attività di pensiero e decisoria? Quali sono i limiti concreti che possono essere introdotti per attenuare la labilità del principio affermato?

Secondo le indicazioni del Regolamento europeo del 2024, recepite dalla recente legge-delega n. 132 del 2025, l’intelligenza artificiale nell’amministrazione della giustizia è definita ad alto rischio per le ricadute pesanti che assume nella vita delle persone e nell’intero sistema; essa è prevista soltanto per l’assistenza a una autorità giudiziaria nella ricerca e nella interpretazione del fatto e del diritto nella applicazione della legge. 

L’art. 15 della L. 132/2025 riserva al giudice la valutazione e la decisione nell’interpretare e applicare la legge e nel valutare fatti e prove, ma non anche la valutazione dell’attività da svolgere in quanto tale e nel comparto dell’attività della polizia giudiziaria. 

Occorrerà perciò elaborare anche le regole per il contraddittorio e per l’esercizio del diritto di difesa, per gli accertamenti tecnici da espletare e per l’elaborazione dei provvedimenti del magistrato, secondo l’ottica della “riserva di giurisdizione”, nell’ambito del settore giustizia. 

In sostanza, si tratta di tradurre in termini giuridici il “lavoro” che può essere affidato alla macchina nella gestione dei ricorsi, delle istanze e degli appelli; nell’assistenza al giudice per le ricerche in fatto e in diritto; nella riassunzione dei provvedimenti; nella predisposizione di bozze; nell’informazione di cittadini e avvocati su diritti, procedure e servizi. 

In sintesi, alla macchina verrà chiesto di analizzare verbali di testimonianza, atti e documenti; di individuare le norme vigenti che rilevano per la causa e siano a applicare; di reperire precedenti decisioni su casi identici o analoghi; di scrivere bozze di testo di provvedimenti. 

Nella inevitabile attesa e pausa di riflessione, necessarie per approfondire e sistematizzare gli sviluppi di un dibattito scientifico e dottrinale complesso se non caotico su questi temi, due osservazioni fra loro diverse ma convergenti sembrano sin d’ora essenziali. 

Da un lato, vi è la necessità di puntare ad un equilibrio ragionevole tra la difesa dell’interpretazione “giuridica” di stampo tradizionale e lo sviluppo delle nuove prospettive proposte dal “prepotente” ingresso della tecnologia e dell’intelligenza artificiale “generativa” nella dimensione giuridica. 

Dall’altro, e forse prima ancora, vi è la necessità di non sottovalutare il rischio di una prevalenza – frettolosa, superficiale e senza limiti – della dimensione tecnologica e delle sue prospettive sulle esigenze della realtà giuridica, nel dibattito fra quest’ultima e la politica. 

Quest’ultimo aspetto sembra oggi particolarmente urgente di fronte alle possibili conseguenze di una scelta referendaria come quella prossima sulla separazione costituzionale delle carriere di giudici e pubblici ministeri. 

Infine, vi è la necessità di delimitare e distinguere il lavoro preparatorio dall’attività riservata rispettivamente al giudice e all’avvocato; e di preservare le regole già esistenti nei codici vigenti, evitando che i principi cardine del nostro sistema giuridico – e cioè la riserva di legge e la riserva di giurisdizione – siano sostituiti dalla “riserva di algoritmo”.

 

4) A questo punto, si pone una domanda provocatoria.

Il reale rispetto delle riserve di legge e di giurisdizione deve essere valutato alla luce delle esigenze di celerità delle decisioni (collegate alla prevedibilità delle stesse) che da un tempo ormai immemorabile costituiscono il “problema” della giustizia italiana, e che potrebbero fornire un insidioso supporto alla prevalenza della “riserva di algoritmo”.

E’ possibile coniugare il “fare presto” con “il fare bene”? E cioè dobbiamo considerare superata l’interpretazione giuridica di stampo tradizionale (ed i noti principi che l’hanno finora governata) dallo sviluppo dell’AI generativa nella dimensione giuridica? 

Sul tema della giustizia è particolarmente significativo il confronto tra passato e futuro: si traduce, in ultima analisi, nelle due soluzioni estreme e semplificate del giudice-uomo e del giudice-robot. 

Per quest’ultimo, l’obiettivo sembra essere all’apparenza quello della giustizia del precedente: il giudice come bocca del computer e non più come bocca della legge e del sovrano o, da ultimo, del popolo, se non addirittura di sé stesso. 

La macchina dovrebbe applicare regole matematiche per la soluzione del caso attraverso un “ragionamento” di tipo probabilistico fondato sull’esame dei precedenti (raccolti in quantità sterminata), anziché attraverso un ragionamento tradizionale di tipo interpretativo e giuridico.

Il compito affidato alla macchina – alla luce dell’afflusso delle richieste e della entità del patrimonio informativo raccolto – è logicamente orientato verso la quantità dei casi, la velocità e l’efficienza delle risposte da elaborare, più che verso la qualità di queste ultime e la specificità dei singoli casi da decidere. 

Sembra particolarmente emblematica, a questo proposito, la crisi del settore della giustizia. Essa non sembra aver trovato soluzioni costruttive di fronte a uno scontro cronicizzato tra i protagonisti “tecnici” tradizionali della materia (giudici e avvocati) e nel sostanziale disinteresse della politica per le sue molteplici emergenze: a cominciare dalla lentezza dei processi per finire con il dramma del carcere. 

In assenza di un apporto sostanzioso di risorse, la nuova prospettiva comporta inevitabilmente un declassamento del “fatto” oggetto della valutazione e del suo autore. 

Nell’ambito del processo penale, ne deriva una sottovalutazione dei “corollari” di principi, di garanzie e di diritti che – per tradizione e soprattutto per riconoscimento costituzionale – presiedono alle regole da applicare nella valutazione del fatto, delle caratteristiche dell’autore e delle conseguenze sanzionatorie che ne possono derivare. Da ciò, insomma, c’è il rischio della scomparsa o della svalutazione dei principi tradizionali, costituzionalmente garantiti, di responsabilità e colpevolezza: “nullum crimen nulla poena sine praevia lege”; “nemo tenetur se detegere”; “cogitationis poenam nemo patitur”; “ne bis in idem”. 

Quei principi perdono di senso di fronte alle più recenti esperienze di “potenziamento” del cervello umano; rispetto alla evoluzione del progresso tecnico e dei risultati raggiunti dalla macchina nella sua pretesa “capacità” di cogliere, fissare, rappresentare e “esteriorizzare” sentimenti, passioni, emozioni, pensieri, dubbi che in precedenza erano “patrimonio esclusivo” della mente umana. 

Se ci si avvia sulla strada del “giudice-robot” diviene labile la possibilità di coglierne il confine con un’azione di supporto della macchina al “giudice-persona”. 

Si rischia di eliminare “decisioni” maturate attraverso la ricerca e la riflessione sui precedenti; di azzerare il confine tra norma giuridica e regola algoritmica, tra integrazione e conservazione dell’esperienza passata e della conoscenza acquisita dal giudice e quanto, invece, è stato registrato dalla macchina. 

In altre parole, nella ritenuta “solidità” del “referto” robotico si rischia di dimenticare i suoi limiti: essi si riassumono nella possibilità di errori nella sua “alimentazione”; nei bias derivanti dalla sua formazione e dagli eventuali pregiudizi presenti nei dati che la macchina riceve ed elabora; nella mancanza di una vera e sicura sua neutralità, solo apparente; nella opacità del suo “ragionamento” e della “scatola nera” che lo contiene e della sua motivazione; nella sua imprevedibilità rispetto alla sua programmazione. 

 

5) Una questione centrale nel tema complessivo è la conservazione dell’equilibrio umano e dell’umanità nel giudicare, caratteristica imprescindibile soprattutto per la tutela dei diritti fondamentali. L’avvento dell’AI ci conduce ad una ibridazione fra uomo e macchine: ma il valore cognitivo delle emozioni non può essere trascurato a proposito del suo rilievo nell’attività giudiziaria. Senza considerare che la ricostruzione della c.d. quaestio facti viene inevitabilmente effettuata anche in base alle narrazioni processuali dei soggetti coinvolti, cariche di percezioni, emozioni, punti di vista: l’ascolto empatico è proprio dell’umano e lontano dall’AI. 

Sarà possibile preservare, nel processo, tale indispensabile valore? Quale rapporto deve essere creato fra giudice persona e giudice robot?

Una riflessione riassuntiva sul confronto tra giudice-persona e giudice-robot mi sembra doverosa alla luce della esperienza da me trascorsa nel mondo del diritto soprattutto come giudice prima delle persone e poi delle leggi, poi come avvocato e accademico con una esperienza politica. 

La “digitalizzazione della giustizia” non è una novità con i suoi indiscutibili vantaggi, ben noti. 

Penso alla dematerializzazione della comunicazione ed ai cambiamenti da essa indotti nel processo per automazione, semplificazione e velocità certamente positive dopo l’effettiva digitalizzazione della organizzazione e dell’apparato. 

Al contrario, è una novità che lascia molto perplessi la prospettiva, futura ed ultima, di sostituire il giudice-persona con quello robot grazie all’impiego dell’intelligenza artificiale, invece di utilizzare quest’ultima come strumento di collaborazione prezioso e probabilmente indispensabile con il primo. 

Il giudice-robot, oltre al plus di rendimento e velocità, dovrebbe offrire le stesse garanzie di quello umano; dovrebbe cogliere l’equilibrio necessario tra una legge uguale per tutti e la sua applicazione ad un fatto ed in un contesto diverso per ciascuno; rendere una “giustizia esatta” più che una “perfetta in sé” nell’equilibrio tra l’eguaglianza di tutti; la pari dignità sociale di ciascuno; il contesto relazionale, spaziale e temporale della identità personale. 

Quel giudice dovrebbe inoltre essere consapevole che la “delega” alle macchine non è rinunzia alla partecipazione e alla “variante umana” delle decisioni; che il “richiamo” ai precedenti e alla loro “imponenza” non può divenire condizionamento del gregge; che la “dittatura del calcolo” non può essere l’unica chiave per affrontare i problemi e i limiti della vita. Il valore della certezza in termini di “calcolabilità giuridica” è certamente positivo, ma non tiene conto necessariamente del contesto e delle situazioni concrete “fuori campo”; presenta difficoltà per la garanzia del suo controllo effettivo. 

Quella certezza è costruita sul patrimonio del passato; non offre garanzie di percezione degli errori e dei bias presenti nella macchina in esito alla sua alimentazione e nel suo autoapprendimento. 

Infine, quel modello di certezza e di efficienza apre la via alla deresponsabilizzazione del giudice persona: un prezzo che appare troppo elevato per accettare il primato del giudice-robot. Queste riflessioni sono sviluppate sotto molteplici e approfonditi aspetti dalla più recente elaborazione accademica. Essa è pressoché concorde in tema di limiti all’intelligenza artificiale e sua applicazione nel campo della giustizia; costituisce l’auspicio e il contributo migliore per superare l’alternativa radicale fra apocalittici e integrati e per affrontare finalmente al meglio e con qualche ottimismo la nostra giustizia. 

Merita, in questo senso, particolare attenzione il recente caveat (del 10 settembre 2025) del Consiglio Nazionale Forense sui requisiti essenziali per l’affidamento dei servizi di intelligenza artificiale per l’Avvocatura.

 

6) Le Raccomandazioni adottate con la delibera dell’ 8.10.2025 dal Consiglio superiore della magistratura si inseriscono come uno strumento di soft law fra Regolamento europeo e normativa primaria nazionale. 

Il testo del CSM afferma che: «Rischi significativi riguardano, inoltre, gli output generati dai sistemi di IA che possono contenere errori e distorsioni, quali cd. allucinazioni (generazioni di contenuti non basati sulla realtà oggettiva), o cd. sycophancies (generazioni di contenuti compiacenti)». 

Il primo elemento di allarme è dunque connesso alla questione dell’errore. 

E’ necessario rinforzare il principio di responsabilità dei principali attori del processo (giudice ed avvocato) rispetto alla decisione, in modo da preservarla da soluzioni erronee fondate solo su automatismi? 

Rimane assai difficile e complesso ovviare a questi problemi e deficit con i rimedi proposti dai principi del processo tradizionale: il diritto di difesa; il contraddittorio tra le parti; l’obbligo di motivazione; l’impugnazione.

Sono troppo noti e drammatici i limiti del giudizio umano che emergono dalla crisi del pianeta giustizia in tutti i suoi aspetti. 

Sono limiti complicati dallo scontro tra le diverse posizioni e scelte politiche e tecniche le quali caratterizzano il dibattito ultradecennale e ormai cronico sulla giustizia; dalla costante crescita della domanda di giustizia e dalla mole del lavoro che ne deriva ai diversi livelli dell’apparato giudiziario; dal succedersi e dal sovrapporsi di riforme incoerenti e disorganiche per rispondere alle istanze della politica; dalla escalation degli strumenti di investigazione; dalla lentezza dei processi e dai loro riflessi sulla libertà della persona e sulla sua privacy; soprattutto dal dramma del carcere e della esecuzione della pena. 

È forte la tentazione di preferire, a questo punto, il giudizio della macchina anziché quello della persona, pur di avere un prodotto neutrale, efficiente, veloce. 

Ma il prezzo è elevato: rinunziare alle “riserve di umanità” della giustizia e del giudizio; alla emotività e alla empatia; al dubbio ragionevole; a una conoscenza che vada al di là della apparenza di una “conoscenza di tipo algoritmico”. 

La ricerca del precedente finisce per essere la ricerca di chi ha risolto lo stesso problema nel passato: ma l’algoritmo, pur cogliendo a perfezione le varianti e le peculiarità del caso da decidere, ignora comunque il significato concettuale ed umano delle parole che usa. 

Il prezzo dell’umanità è un requisito fondamentale della giustizia. È costituito purtroppo anche dalla possibilità dell’errore, dell’inerzia, della lentezza, degli eccessi di interpretazione, dell’arbitrio nella incontrollabilità della persona-giudice. 

Ma è soltanto questo che consente di distinguere tra l’aiuto – opportuno anzi necessario – della scienza alla decisione resa da una persona e il prodotto artificiale del robot. I limiti dell’apparente “neutralità ideale” del “ragionamento giuridico robotico” sono in ultima analisi i riflessi del potere di chi in realtà “gestisce” il robot senza poter escludere con sicurezza l’imprevedibilità delle conclusioni cui può giungere quest’ultimo, discostandosi dagli obiettivi programmati e dai risultati perseguiti dal suo “gestore”. 

E’ evidente, tuttavia, che la “riserva di decisione” prevista dall’art. 15 della L. 132/2025 in capo al giudice deve corrispondere ad un aumento di responsabilità nella vigilanza che deve svolgere sul prodotto fornito dalla “macchina”. 

Ciò imporrà anche un cambiamento nell’organizzazione del lavoro, finalizzato comunque a mantenere il ruolo preminente del giudice uomo.

17/12/2025
Altri articoli di Antonella Di Florio
Se ti piace questo articolo e trovi interessante la nostra rivista, iscriviti alla newsletter per ricevere gli aggiornamenti sulle nuove pubblicazioni.
L’intelligenza artificiale e la tutela dei diritti fondamentali. Giudice uomo o giudice robot?

Intervista a Giovanni Maria Flick, avvocato, professore, già magistrato e Presidente Emerito della Corte Costituzionale, resa al termine della relazione svolta al corso della Scuola Superiore della Magistratura su Il processo e l’intelligenza artificiale, tenutosi a Roma l’1.12.2025

17/12/2025
Giustizia e nuove tecnologie

Sabato 8 novembre 2025, ore 10:00, Fondazione Lelio e Lisli Basso con possibilità di partecipazione online

20/10/2025
La costituzione: baluardo della certezza dei diritti nell'era dell'AI

La svolta epocale, oggi in itinere, che sta coinvolgendo l'intera società civile e la certezza dei valori storicamente acquisiti con la Costituzione del secolo scorso, impone una riflessione a voce alta, non priva di una componente emotiva, sul presente e sul futuro riguardo l'ubi consistam dei diritti della persona e, segnatamente, dei lavoratori. Il presente scritto si propone la "messa a punto", in un tempo incalzante di crisi della democrazia liberale, dei tradizionali valori saldamente acquisiti dopo il secondo conflitto mondiale ed invalicabili, circa l'appartenenza alla sfera della democrazia costituzionale, primo e fondamentale caposaldo di tutti i poteri costituiti nel nostro ordinamento giuridico. Il tutto sarà declinato, però, come specifica e dichiarata opzione culturale, dall'osservatorio del diritto del lavoro e delle sue sempre più evidenti e radicali trasformazioni.

25/03/2025