Magistratura democratica

La matematica del processo:
oltre le colonne d’Ercole della giustizia penale

di Claudio Costanzi

La progressiva affermazione della prova scientifica nel processo penale come nuova regina probationum ha innescato una lenta, ma inesorabile sollecitazione delle logiche qualitative del ragionamento probabilistico, così come descritte dalla sentenza Franzese. Gli argomenti allora utilizzati per confutare gli sterili e opposti approcci quantitativi all’accertamento del nesso causale si scontrano con i recenti tentativi di applicare la matematica alla valutazione e combinazione delle prove. Dagli Stati Uniti d’America e dalla Scandinavia è giunta l’eco travolgente di raffinate teorie per l’algoritmizzazione del giudizio attraverso la quantificazione della credenza soggettiva in un’ipotesi alla luce delle risultanze istruttorie. Compito del giurista e del legislatore è analizzare tali approcci comprendendone il funzionamento, approntando i necessari strumenti per resistere al rischio di degenerazioni meccanicistiche del ricorso ai big data, senza rinunciare agli indubbi vantaggi che i mathematical tools offrono al processo. Invero, l’attuale diffusione anche su scala europea di applicazioni sperimentali del teorema di Bayes e dell’E.V.M. sta cambiando silenziosamente il ragionamento probatorio, proponendo sfide inimmaginabili fino al decennio scorso.

Premessa

Uno storico contributo di Piero Calamandrei si apriva con una laconica constatazione del giurista tedesco Wach: «tutte le prove, a ben guardare, non sono che prove di verosimiglianza»[1]. Invero, il «carattere inevitabilmente probabilistico»[2] di qualsiasi giudizio abduttivo impone di ridefinire l’euristica processuale, al pari di quella scientifica e storica, come «selezione della migliore e più verosimile ipotesi ricostruttiva del fatto di causa»[3] alla luce di tutte le evidenze probatorie[4]. In questo contesto, il giudice è onerato dell’individuazione non solo degli strumenti probatori più idonei a «far ricomparire presente quello che è passato»[5], ma, ancor prima, di una teoria della conoscenza pienamente compatibile con le logiche del probabile entro cui si declina l’accertamento dei fatti. Si tratta di una ricerca solitaria, condotta in assenza di indicazioni precise da parte di un legislatore che ha ostracizzato quasi completamente il termine “verità” dal linguaggio normativo[6].

Il lungo percorso che la giurisprudenza ha compiuto verso lo sviluppo di una teoria della probabilità in grado di razionalizzare l’incertezza sottesa al giudizio abduttivo appare costellato di complesse questioni epistemologiche raramente attenzionate dal dibattito giuridico del nuovo secolo. L’indiscutibile pregio scientifico della probabilità logico-qualitativa, affermatasi con la sentenza n. 30328/2002, Franzese[7], ha repentinamente oscurato l’attenzione della dottrina per l’universo degli approcci quantitativi alla probabilità e al ragionevole dubbio. Purtuttavia, il proliferare di algoritmi decisori sostanzialmente fondati sull’applicazione nel processo dei big data per la ricostruzione dei fatti o per valutazioni prognostiche impone quantomeno di riconsiderare i termini dello scontro dialettico tra concezione qualitativa e quantitativa.

1. Probabilità ed epistemologia moderna

Assai frequentemente nelle scienze analitiche si rinviene un’accezione oggettivo-statistica della probabilità[8], rappresentata come una mera caratteristica ontologica di tutti fenomeni del mondo reale, esprimibile come semplice calcolo della frequenza dell’accadere. In questi termini, alla probabilità di un fenomeno o un’ipotesi è sempre possibile fornire un valore numerico, entro un intervallo 0 →1, ovvero attraverso il ricorso alla formula percentuale del tipo n%, ove 0 (0%) descrive l’assenza di probabilità e 1 (100%) corrisponde alla certezza.

A essa si contrappone un’accezione di probabilità in senso soggettivo[9], tipica delle scienze sociali, che mira a razionalizzare il convincimento in termini di “gradi di credenza” di un soggetto, relativamente alla possibilità che un certo evento si sia realizzato o si realizzi[10]. In questo senso il libero convincimento del giudice, lungi dal sostanziarsi in una mera constatazione statistica, può essere ridefinito come personal degree of belief,o «grado di convincimento razionale», al quale è razionale ritenere vera una proporzione che asserisce un fatto incerto[11]. A differenza della concezione meramente oggettiva, una simile accezione di probabilità coniuga il grado soggettivo di adesione a una ipotesi al grado di attendibilità che quest’ultimo acquisisce «in base alla frequenza relativa degli eventi della classe in cui rientra il fatto da accertare»[12].

Abbandonato l’arido alveo della concezione meramente oggettiva, l’epistemologia giudiziaria si è mossa, inevitabilmente, nel solco della concezione soggettiva della probabilità.

Ciò posto, sarebbe eccessivamente semplicistico ritenere che l’accezione soggettiva non sia in nessun caso esprimibile come valore numerico compreso entro l’intervallo 0 →1. La quantificazione di credenze, per quanto razionali, appare sin da subito un’attività oscura e approssimativa. Eppure, a partire dal tentativo di esprimere la probabilità di una ipotesi come personal degree of belief, irrorata di libero convincimento di un giudicante, si è sviluppata la dialettica contrapposizione tra concezione qualitativa e concezione quantitativa della probabilità, di cui si dirà ampiamente infra.

Preliminarmente, tra le molteplici teorie della probabilità[13], la concezione quantitativa (o pascaliana[14]) si contraddistingue per il tentativo di offrire la misura dell’incertezza nella conoscenza personale «di un fenomeno del quale non si possa predicare né la falsità (o inesistenza) né la verità assoluta (o esistenza)»[15], onde consentire l’individuazione della best inference attraverso il riscorso a leggi universali o statistiche solo se dotate di un coefficiente probabilistico prossimo al 100 %. Per potersi dire sufficientemente provato il nesso di causalità, occorrerebbe la «“pratica certezza” o “pratica verità”»[16], raggiungibile, in ottica quantitativa, solo facendo ricorso a leggi statistiche di copertura quasi universale.

Sulla scorta di tali considerazioni, nel «regno del ragionamento “incerto”»[17], quale quello delle cause in tema di colpa medica omissiva, un orientamento della Quarta sezione della Suprema corte ha ritenuto sufficiente fondare il ragionamento probatorio su mere stime probabilistiche a carattere quantitativo, idonee a fornire il dato della frequenza di un certo fenomeno e, nel complesso, dell’ipotesi accusatoria alla luce delle prove acquisite[18].

Un secondo orientamento, più risalente e maggioritario, ha ritenuto sufficiente ai fini della giustificazione di una pronuncia di colpevolezza un’«“apprezzabile probabilità”, anche piccola»[19] di sussistenza del nesso causale[20]. Si tratta, in estrema sintesi, di un’applicazione della teoria dell’aumento del rischio, per la quale sussiste il nesso causale oltre ogni ragionevole dubbio ove sia possibile «prognosticare una tendenziale propensione dell’antecedente a generare l’evento» e ciò costituisca la best inference sorretta da leggi scientifiche[21].

Come noto, con una «felice sintesi dialettica», la sentenza Franzese ha sublimato con originalità tale contrapposizione, riuscendo a “calare” l’accertamento del nesso causale «all’interno delle più accreditate teorie della conoscenza»[22]. Per quanto qui di interesse, ci si limita a osservare che la pronuncia rigetta tanto gli orientamenti che tendono a valorizzare con un’aberrazione rigorista la benché minima probabilità del nesso eziologico, quanto di quelli che costringono la soglia del dubbio ragionevole «nelle morse di un paradigma numerico quantitativo»[23]. In sostanza, se ne deriva la possibilità che il giudice ritenga inesistente il nesso causale anche se la legge scientifica applicabile sia in grado di offrirne una probabilità vicina alla certezza, ove la probabilità logica non sia integrata per la sussistenza nel caso concreto di un ragionevole dubbio. Parimenti, potrebbe ritenere sussistente la probabilità logica anche quando operi una legge scientifica “a bassa predittività”, purché risulti da altre risultanze, oltre ogni ragionevole dubbio, che il nesso causale sussista e che sia stata proprio quella legge a operare nel caso di specie, procedendo a escludere con certezza “processuale” (è il cosiddetto procedimento per esclusione) che l’evento sia cagionato da altri fattori. Soprattutto, si esclude qualsiasi possibilità di «dedurre automaticamente e proporzionalmente dal coefficiente di probabilità statistica, espresso dalla legge [scientifica], la conferma dell’ipotesi sull’esistenza del nesso causale»[24], comportando il definitivo abbandono del canone nomologico-deduttivo. Si tratta, in buona sostanza, dello statuto qualitativo o baconiano della probabilità nel processo, non limitato al solo accertamento del nesso causale.

L’inesorabile affermazione della probabilità qualitativa nell’epistemologia giudiziaria moderna non ha distolto molti interpreti di common law dall’irresistibile aspirazione di trasporre le logiche matematiche al procedimento di valutazione dei fatti per il superamento “meccanico” della soglia del ragionevole dubbio, insistendo nello spregiudicato obiettivo di fissare la soglia del ragionevole dubbio entro l’intorno 0 →1[25]. Obiettivo dichiarato è l’individuazione di supporti idonei a quantificare il valore probatorio delle risultanze (“wheight of evidence”) e ridurre l’incidenza delle anamorfosi emotiva nel giudizio[26], constatando la pessima capacità naturale di calcolo della probabilità di soggetti non dotati di specifiche competenze[27].

Invero, l’idea che la probabilità matematica trovi applicazione al diritto delle prove non è certo nuova, se si considera il contributo eclettico di Leibniz, autore della prima proposta organica di riduzione dell’enigma abduttivo del processo in rigorosi termini matematici[28]. Tuttavia, tale intuizione non venne recepita in ambito giuridico e rimase a lungo appannaggio esclusivo di logici e matematici[29].

A partire dagli anni Sessanta del secolo scorso la dottrina giuridica americana, prima fra tutte, ha iniziato ad attenzionare le proposte di matematizzare l’inferenza giudiziaria, inizialmente attraverso il solo metodo bayesiano. L’obiettivo dichiarato è l’individuazione regole certe per la formazione del personal degree of belief che, senza trasformare l’induzione in una «deduzione mascherata»[30], consentano di elaborare un modello di probabilità in grado di rendere ripetibile l’iter decisorio, contraendo i margini di discrezionalità del giudizio.

Per quanto queste teorie, trasposte in ambito giudiziario, non abbiano ancora ingenerato i risultati sperati, esse mantengono tutt’oggi potenzialità innegabili in termini di razionalizzazione del giudizio. In realtà, sottende tanto alla concezione pascaliana quanto a quella baconiana l’elaborazione di un modello processuale lato sensu scientifico per la valutazione delle prove indiziarie, al di là dell’utilizzo o meno dei “mathematical tools[31]. Ciò che la quantificazione dell’incertezza offre in astratto è solo la possibilità di sviluppare strumenti in grado di coadiuvare il giudicante nell’individuazione della best inference, specie in una realtà processuale come l’attuale, «impetuosamente investit[a] di dati statistici e valutazioni a carattere probabilistico»[32].

Ci si limita a constatare che il radicato atteggiamento di rigetto aprioristico che ha generalmente accolto le proposte di matematizzazione del giudizio attraverso il ricorso ai big data rischia, al contrario, di abbassare tutte le difese immunitarie che la concezione logica ha eretto nei confronti di una nozione quantitativa di probabilità assai meno raffinata di quella odierna. Infatti, non tutte le teorie quantitative operano allo stesso modo e gli argomenti posti alla base della loro confutazione devono, quantomeno, essere integrati per consentire alla stessa concezione logico-qualitativa della probabilità di guidare l’inesorabile trasformazione meccanicista del ragionamento probatorio.  

2. Il Teorema di Bayes: la gestione algoritmica della complessità

Tra tutti i tentativi di trasposizione delle logiche matematiche al ragionamento probatorio per la fissazione numerica della probabilità di un’ipotesi casuale, il teorema di Bayes[33] è senza dubbio il più noto.

La regola di Bayes si presenta come strumento di calcolo del grado di credenza personale formulato in termini probabili in una spiegazione causale di un evento (H), alla luce di un determinato dato probatorio (E). In altri termini, attraverso il teorema di Bayes, nella sua formulazione più semplice, è possibile valutare l’incidenza di un dato probatorio E sul personal degree of belief di un giudicante in ordine ad una determinata ipotesi ricostruttiva H.

Per comprendere l’operatività del teorema di Bayes si può prendere ad esempio una realtà giudiziaria estremamente stilizzata[34]. Sia G il soggetto giudicante, il quale crede che l’ipotesi accusatoria H («Tizio ha ucciso Caio con un coltello») sia vera, sulla base di un determinato numero di risultanze probatorie E1,2,n. Utilizziamo l’intervallo 0 → 1 per indicare gli estremi entro i quali graduare questa credenza, dove 0 corrisponde alla totale mancanza di fiducia nell’ipotesi H, e 1 all’irraggiungibile certezza della sua verità. L’abduzione di H è seguita piercianamente dalla deduzione di tutte le possibili conseguenze di H,da ricercare sulla scena del delitto. Sicché, dato per vero che Tizio abbia ucciso Caio con un coltello, si deduce che Tizio potrebbe aver lasciato con un’elevata probabilità le sue impronte digitali sull’arma del delitto. Sia E1 la prova da cui emerge la presenza delle impronte digitali di Tizio sull’arma del delitto, così come accertato in sede di istruttoria. Ci si chieda con quale probabilità soggettiva ci si aspetterebbe di osservare E1, data H per vera, e, successivamente, con quale probabilità ci si aspetterebbe di osservare E1data H per falsa (¬H, da leggersi ‘non H’). Se il grado di probabilità soggettiva di osservare E1 data H per vera è pressoché identico a quello riscontrabile in caso di verità di ¬H, allora E1 è irrilevante ai fini della decisione. Invero, è riconosciuto valore pienamente probatorio a un’evidenza E1 solo quando essa riesca ad avvalorare H, indebolendo ¬H, o viceversa. Se la probabilità statistica di osservare E1 in caso di verità dell’ipotesi di accusa H [più semplicemente: P(E1|H)]è superiore rispetto alla probabilità statistica di osservarla in caso di ¬H [cioè P(E1|¬H)], allora E1avvalora l’ipotesi accusatoria.

Seguendo il ragionamento bayesiano, si ha una maggiore credenza in H sulla base della singola prova E1 soltanto se P(E1|H) >P(E1|¬H)[35], ovverosia:

Il rapporto tra P(E|H) e P(E|¬H) indica, in sostanza, il grado di verosimiglianza di H rispetto ad E, anche noto come “quoziente di verosimiglianza” di H[36] o “rapporto di Bayes[37]. La verosimiglianza dell’ipotesi accusatoria appare, pertanto, direttamente proporzionale al rapporto di Bayes, che diviene indice su cui fondare e quantificare la credenza in un’ipotesi alla luce di una prova. Al crescere del quoziente di verosimiglianza, cresce la probabilità di H, ove il valore pari ad 1 costituisce la soglia superata la quale l’ipotesi accusatoria H è più probabile del suo contrario ¬H. Ancora, nel caso di prova irrilevante, il coefficiente all’esito del rapporto risulta pari a 1 per l’equiprobabilità di P(E|H) e P(E|¬H)[38], mentre un’evidenza che non sia statisticamente conforme a H, genera un coefficiente minore di 1 suffragando ¬H, essendo il numeratore inferiore al denominatore[39]. Adottando gli schemi propri della proporzionalità inversa[40], il teorema di Bayes, che nell’individuazione del quoziente di verosimiglianza ha il suo fulcro, si rappresenta in questi termini:

Ovviamente, trattandosi di un contesto rigorosamente statistico, è necessario fissare sin dal principio la

“regola dell’implementazione” tra ipotesi accusatoria e suo contrario, tale che:

    ovvero    

In altre parole, se la probabilità di osservazione di E1data H è pari a 0.8 nella scala 0 → 1, la corrispettiva probabilità di osservare E1 in caso di non colpevolezza dell’imputato (¬H) deve necessariamente ragguagliare il restante 0.2. In tale ipotesi, il quoziente di verosimiglianza risulta di molto superiore a 1, in particolare pari a 4, denotando un grado di verosimiglianza di H rispetto ad E molto più elevato di quello di ¬H.

Anche limitandosi a tale livello di astrazione, il teorema di Bayes si presenta come heuristic device per il giudizio oggettivo sull’ammissibilità di una prova in relazione alla sua rilevanza[41].

Trasponendo il calcolo del quoziente di verosimiglianza nel contesto dinamico dell’istruttoria, caratterizzata, di norma, da un compendio probatorio articolato (E1,2,n) il teorema di Bayes offre più chiaramente le sue potenzialità. Assai raramente, infatti, il grado di credenza razionale rimane immutato nel corso dell’istruttoria. Ciò a cui si assiste è, al contrario, la modifica del grado di credenza di H, o in termini di incremento o di decremento, potendosi definire il ragionamento probatorio come «determinazione razionale progressiva» della probabilità dell’ipotesi accusatoria, continuamente ricalcolata[42] al crescere della complessità del quadro probatorio[43].  L’approccio iterativo al teorema di Bayes consiste nel ripetere il calcolo del peso di P(H) rispetto alle risultanze di volta in volte acquisite. Date n prove, è possibile applicare il teorema di Bayes a ciascuna di esse, al fine di ottenere un quoziente probabilistico P(H|E1,2,n), sempre entro una scala 0 → 1, in cui P(En/H) = 1 - P(En/¬H).

In un approccio iterativo, la formula di Bayes si potrebbe rappresentare attraverso un’espressione semplificata del tipo:

resa in forma percentuale, a partire da una media di quozienti di verosimiglianza corrispondenti a ogni P(En|H)[44]. Ovviamente, non osta all’applicazione iterativa la constatazione che, almeno astrattamente, «il numero delle prove adducibili a sostegno di un’ipotesi H (o dell’ipotesi contraria) è – come è – teoricamente infinito»[45], garantendo questa espressione un risultato sempre ricompreso in 0→1.

Anche se il teorema di Bayes non nasce come una dottrina delle prove, rimanendo un metodo di calcolo di P(H) a partire dalla frequenza dell’evento ipotizzato in quella data classe, in ambito giuridico riscontra un fascino peculiare. Nondimeno, la trasposizione in ambito giudiziario di un simile teorema rende necessario ridefinire in termini quantitativi tutti i fattori coinvolti nel ragionamento probatorio, non essendo immaginabile il ricorso al linguaggio matematico senza valori numerici spendibili. Sicché, essendo richiesto che l’accertamento della responsabilità penale superi la soglia del dubbio ragionevole, i neobayesiani si sono trovati a dover quantificare non solo il canone della preponderance of evidence del processo civile, ma anche il ben più ambiguo canone dell’oltre ogni ragionevole dubbio.

Nello specifico contesto processualpenalistico, l’applicazione di un modello bayesiano consente di verificare se la «probabilità personale che la versione dell’accusa [Ha] sia vera in quanto opposta alla versione della difesa [Hd[46], ma impone, al contempo, la verifica del superamento della soglia critica di probabilità P* (il dubbio ragionevole)[47]. Il giudizio può, quindi, concludersi con una condanna allorquando , ove però è richiesto che .

Pertanto, quand’anche si dovesse giungere a una probabilità intermedia del tipo , il mancato raggiungimento della soglia critica non consente di esprimere un giudizio esente da dubbi in grado di intaccare ragionevolmente il grado di credenza soggettiva raggiunta, imponendo ex articolo 530, comma 2, cpp un’assoluzione. Il dato probatorio complessivo E, pur non mancando e anzi risultando idoneo a suffragare maggiormente una tesi rispetto all’altra, non consente il superamento della soglia che questa concezione colloca rigidamente in «qualche numero vicino a 1»[48]. Più in generale, rimanendo entro un ambito quantitativo di probabilità, si è affermato che il dubbio è irragionevole quando la probabilità dell’ipotesi accusatoria «sulla base delle premesse disponibili, disti da uno solo per un intervallo trascurabile»[49].

Il bayanesimo giuridico, che si presenta come «una teoria non solo “vera” ma in grado di risolvere pressoché tutti i problemi di valutazione delle prove»[50], dà adito, in realtà, a numerose obiezioni. A scanso di equivoci, va anticipato che nessuna di esse, per quanto persuasive, ha radicalmente impedito la proliferazione di applicazioni strumentali delle teorie matematiche di impianto bayesiano al processo.

3. (segue): Critiche all’approccio bayesiano

Prendendo le mosse da quanto poc’anzi detto, il calcolo quantitativo del quoziente di verosimiglianza ha consentito di approcciarsi anche al tema del ragionevole dubbio da una prospettiva nuova, spudoratamente meccanicista, attraverso la quantificazione più o meno arbitraria della soglia oltre la quale un dubbio sulla verità dell’ipotesi accusatoria H cesserebbe di essere ragionevole. Anche la giurisprudenza italiana degli anni Novanta ha peccato della stessa hybris, fissando tale soglia in un valore limite tendente a 1, sostanzialmente pari quindi al 99% o, ancora, al 99,999%. Tuttavia, ci si limita a segnalare che l’identificazione numerica della soglia critica non sembra alla portata dell’ermeneutica matematica, tanto più che in sé, come ricorda Tribe, l’esistenza di una soglia che consenta al giudice di condannare l’imputato pur sapendo che esiste un certo margine di probabilità della sua innocenza è un costo della precisione «intimamente immorale»[51]. Sebbene la quantificazione di tale soglia non appaia ostativa al funzionamento del teorema, è del tutto evidente che l’impossibilità di fissare un valore numerico oltre il quale la probabilità di una ipotesi possa dirsi ragionevolmente vera oltre ogni dubbio svuoterebbe di rilevanza il teorema di Bayes, relegandolo a strumento di integrazione del ragionamento probatorio, diversamente da come originariamente ipotizzato.

Peraltro, ragionando sempre sul ragionevole dubbio circa la verità di un’ipotesi H alla luce delle evidenze probatorie, non si può non constatare che il teorema di Bayes mostra una sostanziale indifferenza alla completezza del compendio probatorio, di cui il quoziente di verosimiglianza non reca alcuna traccia[52]. Anche volendo trasporre le logiche pascaliane alla valutazione delle prove acquisite a dibattimento attraverso la declinazione bayesiana delle inferenze causali, «non si può fare a meno di usare, implicitamente o esplicitamente, una valutazione della completezza dei fatti posti all’attenzione della Corte»[53]. È evidente che un quoziente di verosimiglianza ottenuto all’esito di un’istruttoria completa non si differenzia ex se da quello ottenuto combinando dati probatori scarni e lacunosi. Il che non può non influenzare anche la valutazione sulla persistenza o meno di un ragionevole dubbio. Eppure, sembra innegabile che tra i due quozienti solo il primo presenta un grado di affidabilità tale da giustificare una qualsiasi statuizione, pur non essendo il teorema di Bayes in grado di coglierlo. Un teorema che non ingloba il dato sulla pienezza cognitiva né distingue tra probabilità assoluta e subordinata[54] nella peculiarità del sistema processuale penale fornisce esiti ex se indistinguibili sia in caso di quadro probatorio sufficientemente completo sia in caso di grave deficit probatorio. Constatazione questa forse già sufficiente a escludere che quella bayesiana sia «una buona teoria dell’accertamento giudiziale dei fatti»[55].

A questa, come ad altre obiezioni, il neobayanesimo giuridico ha tentato di resistere attraverso l’inserimento di un dato relativo alle lacune probatorie nel teorema di Bayes[56]. La probabilità di Ha, risultante dalla totalità delle prove acquisite E, andrà integrata con «un apposito elemento di correzione (L) corrispondete alle lacune che il quadro probatorio E»[57] mostra rispetto alla completezza ipotetica del quadro probatorio. Sia Fa «l’insieme delle prove che ci si può aspettare [deduttivamente] di sentire a sostegno di H (nell’ipotesi che H sia ciò che è accaduto)»[58] e Fdil corrispondente per la ¬H. In un modello di giudizio che percepisca l’esigenza di completezza o, quantomeno, sufficienza del dato probatorio, si dovrebbe confrontare il dato emerso Ea con quello general-deduttivo Fa, ricavato piercianamente dall’ipotesi inizialmente abdotta, al fine di calibrare meglio e più consapevolmente il grado di probabilità di Ha. Si consideri ora L come l’insieme delle lacune probatorie (L = La Ld), tale che (L + E) dà conto dell’intero compendio probatorio osservato e osservabile. Aggiornando così il teorema di Bayes si ha un più affidabile sistema di valutazione delle prove ai fini di una condanna, esprimibile in questi termini:

Se la lacuna relativa ad H rispetto a quello che dovrebbe essere il quadro probatorio completo non è giustificata, inevitabilmente si riduce il grado soggettivo di credenza in H[59], comprimendola al di sotto della soglia critica P*, comportando l’assoluzione per insufficienza di prove. Si tratta di un correttivo che appare astrattamente risolutivo[60] e che raffina ulteriormente la logica bayesiana sulle esigenze epistemiche del giudizio.

Ciò detto, permangono molti altri limiti a cui la dottrina neobayesiana non è ancora riuscita a porre definitivamente rimedio. Si è detto che il teorema di Bayes opera entro un’affascinante, ma impraticabile logica proposizionale binaria vero/falso, in cui se P(H|E) tende (o è uguale) a 0, allora, di converso, P(¬H|E) è pari a un grado di certezza prossimo (o uguale) a 1. Ebbene, ove la probabilità della tesi accusatoria sia pari o tendente a 0, si dovrebbe bayesianamente concludere che l’ipotesi accusatoria è tendenzialmente falsa, perché da P(¬H|E) = 1 - P(H|E) risulta un’alta probabilità (≥ P*) di ¬H. Eppure, sarebbe scorretto ritenere che, ove manchi la prova di H, sussista macchinalmente la prova di ¬H. Più correttamente, in una siffatta ipotesi si versa in «una situazione di permanentee (allo stato delle cose) irresolubile incertezza intorno all’esistenza di [un evento] X», ascritto alla responsabilità dell’imputato sub H, rispetto alla quale «non vi sono elementi di conferma per nessuna ipotesi»[61], tantomeno ¬H. L’incapacità della logica bayesiana di distinguere tra assenza di prove a sostegno di un’ipotesi H (la «situazione di ignoranza» di cui parla Schafer[62]) e sua radicale falsità non appare, allo stato, né superata né superabile. Infatti, «non è detto che il grado di conferma di un’ipotesi debba essere inversamente collegato a quello dell’altra», proprio perché «non vi è nessuna complementarietà tra le due situazioni», almeno «dal punto di vista della situazione probatoria che in concreto viene a realizzarsi»[63]. Nella logica del ragionevole dubbio, la prova di ¬H (innocenza) non opera semplicemente perché non necessaria. Al contrario, una simile applicazione espone il giudizio a sforzi non richiesti, poiché la prova oltre ogni ragionevole dubbio della falsità di un’ipotesi non si discosta, quanto a modalità di accertamento e difficoltà, dalla prova della sua verità. Con la differenza che, mentre ai fini della condanna un simile sforzo intellettuale ed economico è ragionevole, per la prova dell’innocenza appare totalmente inutile e antieconomico, posto che il processo è chiamato a vagliare la verità proposizionale della sola imputazione. Per dirla sempre in termini bayesiani, la prova della falsità richiede il superamento di una soglia critica (Pf*) pari a Pf* = 1 - P*, cioè prossima allo 0, in una scala 0 → 1. Tuttavia, se per la condanna è necessario il superamento di P*, per la assoluzione ex articolo 530 comma 2 cpp è sufficiente che P(H|E) ≤ P*, a nulla rilevando quanto prossima a 0 sia in concreto Pf*[64].

Ma la principale e più nota obiezione prende le mosse dalla determinazione del grado di convincimento razionale sulla base della frequenza di un certo fenomeno all’interno di un sistema dato e preesistente. Questi dati frequenziali, anche detti prior probabilities (o base rate informations), costituiscono il fondamento imprescindibile del calcolo bayesiano[65]. Ebbene, il teorema di Bayes offre rare applicazioni al di fuori delle «esercitazioni accademiche»[66], in cui, ammessa e non concessa un’ideale completezza probatoria, le prior probabilities risultino determinabili efficacemente[67]. La serie di domande per ricavare dati statistici potrebbero essere poi sostanzialmente “infinite” per cercare di affinare un dato statistico via via in condizioni più simili al caso concreto[68]. Per altro, rimanendo entro le rare ipotesi in cui siano determinabili le prior probabilities,rimane comunque rischioso tentare di estrarre da un dato frequenziale informazioni che potrebbero facilmente risultare non rilevanti nel caso concreto o canalizzare il ragionamento probatorio entro pericolosi tunnel (anti)cognitivi. Si pensi al celebre caso giudiziario del «Blue Bus» (Smith v. Rapid Transit, Inc.[69])presentato da Tribe[70] per screditare il ricorso alla cd. naked statistic evidence basata su prior probabilities irrilevanti al caso concreto. Anzitutto, conoscere che in una determinata città l’85% dei bus di colore blu è gestito dalla società A e che solo il restante 15% è gestito dalla società B, non consente ex se di individuare a quale compagnia appartenga il bus blu coinvolto in un incidente notturno[71]. Al più, si può affermare che la frequenza con cui è possibile osservare un autobus blu appartenente ad A è tendenzialmente di 0,85, ma null’altro. Inoltre non è possibile trarre dal dato statistico conferme o smentite sull’attendibilità del testimone che dichiari di aver visto un autobus blu della compagnia B, perché senza ulteriori elementi[72] non è possibile escludere ragionevolmente che abbia visto ciò che è meno frequente[73]. «Il massimo che si possa dire dell’evidenza del presente caso è che forse – riconosce la Corte – le probabilità matematiche sono a favore della affermazione che l’autobus del convenuto [compagnia A] ha provocato l’incidente. Ma questo non [risulta] sufficiente»[74]. Ai fini di stabilire se l’autobus blu coinvolto nell’incidente appartenga o meno al parco macchine della convenuta compagnia A, a nulla rileva la prior probability circa il rapporto di autobus blu a sua disposizione su tutti quelli presenti in città. In caso contrario, si produrrebbe il risultato di ritenere quel convenuto responsabile di ogni incidente coinvolgente un autobus blu; il che, chiaramente, è inaccettabile. Si pensi anche al cosiddetto «paradosso dell’intruso»[75]the paradox of gate-crasher») in cui si vuole accertare se uno degli spettatori di un concerto abbia realmente pagato il biglietto di ingresso, senza avere nessun elemento di prova. Conoscere la frequenza con cui il fenomeno che si imputa anche al soggetto si presenta tra gli spettatori (per esempio sapere che solo il 49% degli spettatori ha presentato regolare biglietto) non produce alcuna utilità inferenziale[76]. Posto che non esistono altre prove, gli organizzatori potrebbero vincere una causa civile, ispirata alla preponderance of evidence e non alla più esigente Bard rule? La logica frequentista dovrebbe ammettere di sì, ma, se così fosse, si produrrebbe il paradosso di esporre a responsabilità chiunque abbia preso parte all’evento per la preponderanza della prova statistica a suo sfavore[77]. Sotto questo profilo il teorema di Bayes, se adottato come unico strumento decisorio, finisce per convogliare il giudizio in un cul de sac caratterizzato dal sacrificio dell’eccezione alla normalità dell’avvenire.

Si potrebbe obiettare che «la comprensione del mondo esige necessariamente che si ricorra a generalizzazioni»[78], di cui è esempio il nostro stesso linguaggio. Talché è corretto affermare che tra prove “generalizzate” (ad esempio le massime di esperienza o a dati statistici) e prove “individuali” (tracce del singolo fatto concreto) non intercorra una differenza di categoria, ma solo di grado di approssimazione[79]. Così come è possibile giungere ad asserire che «qualsiasi inferenza probatoria si fonda [inconsapevolmente] sull’applicazione del teorema di Bayes, mediante l’interpretazione soggettivista della probabilità come grado di credenza razionale»[80]. Eppure, è fuor di dubbio per le ragioni anzidette che sono le prove “individuali”, per quanto prove di verosimiglianza à la Wach, ad assolvere alla ricostruzione di fatti specifici e a rendere processualmente fruibili le massime di esperienza o le leggi statistiche di cui il processo certamente non può fare a meno[81]. Parafrasando la sentenza Franzese, su cui si tornerà nel prosieguo, sembra inevitabile ritenere che il garantismo penale si debba tradurre anche, e soprattutto, in garantismo inferenziale, poiché a nulla servirebbe imbastire un “giusto processo” paritetico se poi è l’imputato a doversi difendere da un dato statistico apparentemente invincibile e sottratto, in relazione all’accertamento del nesso causale, al rigore del ragionamento controfattuale.

Senza una simile integrazione “individualizzante”, un’alta probabilità iniziale di P(H) rischia di divenire una prova astratta, fondata su una presunzione di conformità dell’accadere con quanto osservato in passato, di cui si nutrono le anamorfosi del giudizio e su cui sono edificate tante – troppe – colonne infami[82].

In conclusione, dell’applicazione in ambito giuridico del teorema di Bayes resta la capacità di descrivere un percorso di intimo convincimento anche in un’ottica dinamica di ingresso e combinazione di nuove evidenze, senza però fornire ancora un modello definitivo di riduzione della complessità del giudizio di valutazione delle emergenze probatorie. Non v’è dubbio che il grande successo che tale teorema ha riscontrato, specie negli ordinamenti di Common Law, consiste nella sua valenza come heuristic method in grado di rappresentare con precisione geometrica l’algoritmo decisorio, in piena ottica illuminista. Precisione i cui costi ingenti potrebbero non essere irrimediabilmente superiori ai benefici[83], come intendono dimostrare i recenti tentativi di passare dal “decidere la verità, al “calcolare la verità’, di cui si dirà infra.

4. Il fallimento degli altri approcci quantitativi

L’esperienza bayesiana non esaurisce lo spettro degli approcci matematico-statistici al giudizio. Altre teorie hanno tentato di applicare il calcolo della probabilità alla valutazione delle prove, tentando di superare alcuni dei limiti delle teorie bayesiane.

Tra queste, una delle più raffinate e complesse è la «versione non ortodossa dell’impostazione classica bayesiana»[84] nota come Evidentiary Value Model (EVM)[85], sviluppatasi autonomamente in Svezia al fine di risolvere i dubbi sollevati dalla codificazione del concetto di libero e razionale convincimento del giudice[86]. Della concezione bayesiana il modello svedese conserva l’idea che la credenza in un’ipotesi H sia quantificabile e che il teorema di Bayes rappresenti il modello base per il calcolo del peso probatorio di una singola evidenza. Tuttavia, escludendo che la formazione di una credenza si sostanzi in una mera determinazione statistica della probabilità di osservare H alla luce di E, l’EVM propone di definire il giudizio come valutazione della “relazione probatoria” tra l’ipotesi accusatoria e il compendio probatorio acquisito. In altri termini, al giudice non interessa principalmente stabilire la verità del factum probandum, «quanto stabilire che esista un’appropriata “relazione probatoria” fra [probandum e probans], poiché anche un alto grado di credenza nella verità di [una proposizione accusatoria] “al di là di ogni ragionevole dubbio”, ha valore giudiziario solo se è stabilito sulla base di una “appropriata” relazione probatoria»[87] che la giustifica. Ne deriva la necessità di indirizzare la ricerca giudiziale non sulla sola verità del tema accusatorio, «ma sulla presenza, o possibile presenza, di una connessione causale o logica fra la prova ed il tema»[88].

Valutare la prova significherebbe in quest’ottica stimare la probabilità che la singola prova di volta in volta acquisita “dimostri” l’ipotesi, ricorrendo alla metafora dell’apparato di misurazione proposta da Freeling e Sahlin[89]. Come noto, l’attendibilità delle misurazioni scientifiche rappresenta un dato imprescindibile di qualsiasi ricerca[90]. Se l’apparato di misurazione «funziona bene, allora la lettura dell’apparato dà il valore corretto, ma, se non funziona bene allora la lettura»[91] dell’apparato appare inattendibile. Allo stesso modo una testimonianza, ad esempio, assume un certo valore nella misura in cui riteniamo che il testimone sia realmente sincero e informato sui fatti su cui è chiamato a deporre, ma anche che ricordi sufficientemente bene quanto richiesto. Questa connessione è quantificata in termini di relazione probatoria, che è pari a zero ove si ha motivo di ritenere che la testimonianza che avvalora H sia completamente inattendibile ed è pari ad 1 ove si ritenga che sia, invece, attendibile.

In termini dinamici, l’Evidentiary Value Model consente di combinare i diversi valori della relazione probatoria (A) delle singole prove acquisite rispetto all’ipotesi H, attraverso un’espressione del tipo:

dove il rapporto tra ogni singolo valore probatorio è di tipo disgiuntivo ed indipendente ( , poiché la questione non è capire «se tutti i fatti probatori provano il tema [H], ma se qualcuno di essi lo fa»[92].

Il punctum puriens consiste nell’impossibilità di quantificare con precisione il fattore elementare con il quale tutta la teoria opera, vale a dire l’evidentiary value di partenza di ogni singola evidenza probatoria. La realtà nella quale il giudizio opera è connotata da incertezza non solo sul factum probandum, ma anche sul suo rapporto con il factum probans. A questo punto, occorre domandarsi quale senso avrebbe l’efficace «analogia tra la prova e lo strumento di misura»[93], se ciò che la teoria del valore probatorio intende misurare è solo sommariamente valutabile. Come nel caso della dottrina bayesiana, ci si trova dinnanzi a una formulazione che ha il pregio teorico di spiegare il complesso fenomeno della ponderazione della decisione alla luce del valore delle nuove prove, senza però fornire strumenti per valutarlo.

Indubbiamente, non può dirsi risolutivo il tentativo di attribuire all’evidentiary value un dato numerico “vago”[94] entro il range 0 → 1, da “impossibile” (pari a 0), fino a “ovvio” (pari a 1), passando entro i gradi intermedi, dal meno al più probabile, di “improbabile”, “plausibile”, “probabile” e “confermato” (oltre la soglia critica)[95]. Una simile rinuncia alla precisione nel calcolo della variabile numerica fondamentale non appare coerente con il fondamento matematico dell’Evidentiary Value Model. Parimenti, affermare che i dati probatori combinati tra loro debbano offrire un valore di connessione del factum probans con il factum probandum P(A|E) in termini di altissima probabilità, non risolve il problema della quantificazione numerica della soglia critica del ragionevole dubbio da inserire nell’algoritmo. Verrebbe da domandarsi perché debba intendersi come “quasi vera”, “confermata” un’ipotesi che sia suffragata da prove attendibili al 99%, e non il 95% o 99,999%. Nel ricorso quotidiano agli strumenti di misurazione o diagnostica, ammettiamo l’esistenza di un margine di errore, ritenuto trascurabile se inferiore a certe percentuali. In ambito processuale il costo della precisione sembra eccessivo[96]. Per giunta, qualsiasi fissazione numerica del ragionevole dubbio, da cui gli approcci quantitativi non possono prescindere, rimangono «rozze approssimazioni […] che non hanno alcun significato numerico attendibile»[97] e che offrono solo risultati tendenziali.

Considerazioni del tutto analoghe possono essere svolte per l’elaborazione delle combined evidences proposta da Schafer[98]. Ammettendo che la teoria proposta non dispone di strumenti per il calcolo del grado di credenza iniziale, Schafer sottolinea come il pregio delle teorie combinatorie non debba essere ricercato nello sviluppo di modelli teorici più o meno idonei a quantificare credenze soggettive, caratterizzate dall’irriducibilità in termini numerici. Al contrario, esse dovrebbero fornire all’organo giudicante strumenti per quantificare credenze soggettive già raggiunte entro il margine 0 → 1, per poi poterle combinare efficacemente. Eppure, anche in questo caso si deve rilevare il rischio che il soggettivismo non venga eliminato, ma solo espresso in una più rassicurante, ma sempre fittizia, forma numerica.

Peraltro, l’oggettivizzazione della valutazione in termini comunque sempre probabili, tipicamente proposta dalla dottrina di matrice tedesca[99], tende per lo più a tenere in considerazione l’attendibilità di una prova in termini di frequenza relativa e predeterminata[100], che ha molto in comune con le prior probabilities bayesiane, comprese le relative criticità. Rimane da domandarsi quale sia l’effettiva utilità di conoscere la frequenza di testimonianze false, ipotizzando sempre di godere di una certezza classificatoria per distinguere le testimonianze “vere” da quelle “false”. Se nove testimonianze su dieci sono vere (sincere perché si dice ciò che si ricorda e ciò che si ricorda corrisponde alla verità storica), come si potrebbe cogliere da ciò una qualche utilità nella valutazione della singola testimonianza? Evidentemente, in nessun modo, nemmeno quando la frequenza si riferisca alla serie di testimonianze rilasciate dalla stessa persona escussa in altre circostanze e indichi una spiccata tendenza a mentire[101]. Si ripropongono problemi già affrontati, e risolti con un abbandono di questi dati, per altro raramente nella disponibilità del giudicante, se non come meri “indicatori”, svuotati di valenza probatoria senza evidenze integrative “individualizzate”.

5. Tanto rumore per nulla?

Si è osservato che tutti gli approcci quantitativi alla verità probabile nel processo innalzano il calcolo matematico a garanzia di razionalità della decisione, al punto da cercare di comprimere in termini aritmetici peculiarità soggettivistiche a cui il processo non può rinunciare. Questo atteggiamento a tratti naïf naufraga dinnanzi alla mancanza di uno strumento idoneo a quantificare le prior probabilities o gli evidentiary values, senza i quali non è possibile procedere a calcoli combinatori di sorta. Se a ciò si aggiunge che persino le stesse massime di esperienza diffusamente utilizzate sono raramente esprimibili attraverso rigorosi dati statistici[102], è chiaro che l’assenza di dati quantitativi di partenza se non è sempre incolmabile, è frequentemente incolmata.

In ogni caso, conoscere l’esatta frequenza di un certo evento entro una classe, a meno che sia pari al 100%, risulta sostanzialmente inconcludente, per lo meno sul piano probatorio e motivazionale. «Perché un giudice – si chiede provocatoriamente Eggleston – in una serie di circostanze che probabilmente non si ripeterà mai, dovrebbe basare le proprie conclusioni relative al merito del procedimento su ciò che egli ritiene un bilancio delle probabilità»[103] relative a casi precedenti solo simili?

Di tutti i limiti dell’impianto bayesiano, comune tutti gli approcci quantitativi, il ricorso alle naked statistics è forse il più eclatante, poiché cerca di imporre una tendenziale uniformità osservata in precedenza a eventi nuovi e non ricompresi nel suddetto calcolo frequenziale. Anche se non mancano autori che reputano opportuno allargare i dati statistici relativi a eventi di un certo tipo entro la classe di riferimento, per ottenere supporto probatorio sufficiente per tutti gli eventi simili ivi osservati[104], questa sembra una posizione ampiamente inconciliabile con la funzione euristica del processo indissolubilmente legata al caso concreto. Come precisa Frosini, «delle statistiche nude non si deve generalmente tener conto nel dibattimento processuale, ma sono ammesse eccezioni»[105] previste dal legislatore, specie in materia civilistica[106].

Al di fuori di tali ipotesi, si ritiene quasi unanimemente che la prova statistica sia in sé insufficiente a fornire la prova del fatto da ricostruire[107], perché «il giudice deve accertare una relazione che riguarda un singolo caso e non un insieme di casi»[108]. Ciò non implica che il ricorso alla prova statistica rimanga appannaggio solo dei bayesiani, poiché essa, a seconda del tipo di fatto che si intende provare, può comunque mostrare una qualche utilità processuale, o persino essere decisivo[109]. Come noto, il dato statistico rientra nel patrimonio di conoscenze del giudice per l’accertamento del nesso causale, ed è anzi proprio questo il caso in cui esso «può risultare significativo – se non, addirittura, determinante»[110]. Purtuttavia, il grado di fondatezza dell’ipotesi accusatoria non può mai coincidere con la frequenza con cui il tipo di evento che si intende provare si osserva in una classe data (ed entro cui è sussumibile il caso de quo)[111].

In un contesto di crescente rilevanza della prova scientifica, il giudice è chiamato a resistere al canto delle sirene dell’id quod plerumque accidit e colmare lo scarto che sussiste tra la frequenza statistica (generale e non direttamente rivolta al fatto concreto) e l’ipotesi sul fatto specifico che si intende provare. Rendere processualmente fruibile una prova statistica significa “individualizzarla”, sfruttando il supporto inferenziale fornito dalla tendenziale uniformità rispetto ai casi precedentemente osservati, senza però commettere l’errore di sacrificare le specificità del fatto concreto alle logiche di economia processuale. Sicuramente, un dato statistico particolarmente prossimo alla certezza (pari al 100% di osservazione di quell’evento in determinate circostanze) fornirà all’inferenza sul fatto da provare una «base più oggettiva»[112], ma non colmerà di certo da solo quel quid pluris richiesto per superare nel caso di specie la soglia epistemica del ragionevole dubbio. La giustificazione di una credenza posta alla base della motivazione non può – e non deve – mai tradursi in una mera individuazione della legge causale in grado di spiegare il maggior numero di ipotesi simili. Ciò emerge molto chiaramente nella sentenza Franzese, che si preoccupa di precisare che non è consentito, soprattutto sotto il profilo epistemico, «dedurre automaticamente e proporzionalmente dal coefficiente di probabilità statistica espresso dalla legge di copertura la conferma dell’ipotesi», specie quando si tratta di ricorrere a una «nozione “debole” di causalità». Si avrebbe altrimenti «un’abnorme espansione della responsabilità, in violazione», soprattutto, «della garanzia di responsabilità per fatto proprio»[113]. Per questo motivo, il dato statistico su cui si basa il bayanesimo deve essere integrato, transustanziato ed eventualmente smentito dalle peculiarità del caso concreto, la cui forza probatoria non sembra allo stato quantificabile numericamente.

Perché allora un oculato risparmio delle risorse intellettuali non ha indotto una parte della dottrina e della giurisprudenza ad abbandonare l'interesse e i tentativi di affinamento di algoritmi tanto complessi? La risposta non può che essere tranchant: le potenzialità di approcci simili in termini di semplificazione ed economicità del giudizio sono innegabili. Altrettanto innegabile è che il desiderio di oggettività nel giudizio quale espressione massima del due process of law non si sia mai rassegnato all’intime conviction, per quanto ormai pienamente trasposta nelle non meno rigide forme della razionalità qualitativa. Peraltro, si sbaglierebbe a ricondurre il sogno di poter applicare il linguaggio matematico all’algoritmo di valutazione della prova entro una più generale deriva meccanicista delle scienze cognitive[114].

Poco recettiva di simili proposte, dall’andamento carsico e periodicamente riscoperte, la nostra dottrina vanta un intervento che precede di qualche anno il recupero della dottrina americana del Teorema di Bayes in ambito giuridico negli anni Settanta del Novecento. Pur senza generare l’interesse sperato, la rappresentazione algebrica dei possibili esiti del giudizio isolatamente proposta da Carnelutti, in un articolo del 1961[115] segna il solco entro il quale pare opportuno incanalare il crescente, benché tardivo, interesse nella cd. “matematica del processo”. Carnelutti riconosceva una certa utilità delle funzioni algebriche quali «heuristic devices», in grado di far emergere la tendenziale prevalenza o meno delle ipotesi di colpevolezza e di non colpevolezza (nella consueta forma H e ¬H), senza, però, adottare alcun criterio matematico per la precisa ponderazione della probabilità di ciascuna ipotesi[116]. Invero, il senso di frustrazione che pervade il giurista “quantitativo” sembra derivare proprio dall’aspirazione di completa sostituzione del giudizio attraverso algoritmi probatori dall’aspirazione universale[117]. Più propriamente, tali teorie vanno riconsiderate come heuristic model per la valutazione probatoria, da cui trarre giovamento processuale e punti di vista inediti, almeno per il giurista di formazione classica, per nuove e più solide conferme della concezione qualitativa oggi dominante[118].

La consapevolezza dei limiti degli approcci quantitativi di cui si è dato conto non ha impedito di affinare modelli di calcolo del peso probatorio e della probabilità delle ipotesi causali, le cui recenti applicazioni sperimentali stanno spingendo repentinamente il dibattito processualistico ben oltre le colonne d’Ercole della probabilità baconiana.

6. Le ultime applicazioni sperimentali della matematica del processo

Tra i nuovi algoritmi processuali già applicati in via sperimentale, uno degli esempi più significativi è il Compas (Correctional offender managment profiling for alternative sanctions), brevettato da una società americana e inizialmente adottato da un ristretto numero di Corti di merito americane per la previsione su base statistica della probability of the offender’s recidivism ai fini della quantificazione della pena e della successiva extended supervision. Attraverso l’inserimento di una serie di dati oggettivi concernenti il trascorso criminale, le condizioni socioeconomiche e personali dell’imputato, nonché 137 domande a risposta vincolata poste allo stesso, Compas misura il rischio di recidivanza come “low”, “medium” e “high[119]. Si tratta di un software già largamente in uso ad alcuni corpi di polizia nazionali per calibrare l’intensità della supervisione dei soggetti in libertà vigilata, dopo essere stato ritenuto affidabile, tra gli altri, dalla Divisione di servizi per la giustizia penale dello Stato di New York. Nel 2016 anche la Corte suprema del Wisconsin, pronunciandosi sul caso State v. Loomis[120]ha avallato il ricorso ad algoritmi per la determinazione quantitativa del rischio di recidivanza, sulla cui affidabilità epistemica è necessario soffermarsi brevemente. Occorre sin da subito precisare che, trattandosi di algoritmo brevettato, «la metodologia usata per formulare tale valutazione non è stata comunicata né al giudice né all’imputato»[121]. Pertanto, non è possibile vagliare in concreto l’idoneità del meccanismo di calcolo approntato, ma solo la sua astratta idoneità a fornire informazioni rilevanti per il giudizio sul pericolo di recidiva.

Si è già detto che il bayanesimo giuridico si è sviluppato principalmente in relazione al calcolo della credenza soggettiva fondata sulla probabilità di una certa ipotesi ricostruttiva alla luce di determinati dati probatori. Invero, il modello bayesiano è idoneo a suffragare anche valutazioni prognostiche su un’ipotesi, a patto di disporre di un compendio di prior probablities sufficientemente integrato. Anche nel caso dell’algoritmo Compas, il ricorso a statistiche redatte dalla società privata sulla scorta di osservazioni di casi precedenti su scala nazionale per la determinazione della probabilità di recidivanza sembra seguire logiche prettamente bayesiane. Conoscere i limiti in cui il bayanesimo giuridico incorre consente di intuire quali siano le critiche che possono essere mosse al calcolo del rischio di recidivanza sulla base di dati statistici ottenuti osservando casi e soggetti diversi da quello del caso concreto. Pur rigettando il ricorso dell’imputato, che lamentava l’incompatibilità del Compas con i principi del giusto processo sotto il profilo dell’inidoneità epistemica e della violazione del diritto di difesa per l’impossibilità di conoscere il suo meccanismo di funzionamento, la Corte suprema del Wisconsin ha ridimensionato l’entusiasmo in futuristici scenari di giustizia predittiva. Nelle motivazioni della sentenza, la Corte suprema del Wisconsin ha evidenziato che algoritmi a base statistica, come Compas, «non prevedono la specifica verosimiglianza che un determinato imputato commetterà un nuovo reato. Al contrario, forniscono una previsione basata su una comparazione di informazioni del singolo imputato su quelle di un gruppo di soggetti simili»[122]. Sulla scorta di tale constatazione, la Corte suprema ha concluso che Compas «è solo uno di una serie di molti fattori che possono essere considerati e ponderati nella decisione»[123]. A ben guardare, infatti, il ricorso a mathematical tools deve ragionevolmente essere limitato, come già si è detto sulla scorta delle intuizioni di Carnelutti, alla combinazione di dati, a patto di poterli misurare in termini numerici, e mai in sostituzione del giudizio. Solo valutando l’esito di Compas quale fattore non esclusivo della decisione può assicurarsi che le decisioni siano rispettose del right to individualized sentencing, conservando la Corte «la discrezionalità e la conoscenza necessaria per disattendere, quando necessario, la valutazione»[124]. È, in sostanza, la conferma dell’impossibilità di eliminare l’intime conviction, specie in tema di valutazione prognostica del rischio di recidivanza, inevitabilmente affidato all’«intuition, instinct and sense of Justice»[125] del giudicante. Peraltro, nonostante i limiti imposti all’uso processuale di Compas, la Corte si mostra ben conscia dei rischi di un abuso, posto che «la maggior parte dei giudici non è in grado di comprendere gli esiti degli algoritmi di calcolo del rischio»[126] e che l’esercizio del diritto di difesa appare estremamente compromesso dalla segretezza del loro meccanismo di funzionamento[127]. È infatti crescente il numero di pronunce di Corti americane in cui si esalta entusiasticamente il ruolo probatorio dei risk assessment tools[128], ma anche il rischio che sulla presunzione di conformità dei casi presenti con quelli simili registrati in passato si sacrifichino le specificità del caso concreto, attraverso la trasformazione del ragionevole dubbio in mera quantificazione statistica del margine di errore giudiziario ritenuto accettabile. Se tale constatazione è valida in una realtà come quella americana, in cui il dibattito sull’uso processuale di algoritmi decisori e predittivi è ormai approfondito e diffuso, non resta che domarsi quale potrebbe essere la capacità dei giudici e delle Corti supreme continentali di far fronte all’inarrestabile diffusione di simili tools[129].

Nel 2016 anche l’University college of London ha sviluppato un algoritmo decisorio in grado prevedere le decisioni della Corte europea dei diritti dell’uomo[130]. Prendendo in esame la giurisprudenza recente della Corte in relazione ai soli articoli 3, 6 e 8 della Convenzione, l’algoritmo si è rivelato idoneo a valutare la violazione o meno degli articoli presi in esame in nuovi casi concreti posti all’attenzione della Corte, ottenendo un margine di successo (decisione conforme a quella calcolata dall’algoritmo) fino al 79%. L’algoritmo processa un input di parole chiave relative a tre macrosezioni. La prima, avente ad oggetto una sommaria descrizione del fatto, comprensiva di una sottosezione relativa alle circostanze legate al caso concreto e di un’altra relativa alle normative nazionali poste all’attenzione della Corte. La seconda riguardante le norme della Convenzione coinvolte da ogni singola decisione così come interpretate dalla giurisprudenza convenzionale. Infine, la terza relativa agli esiti di tutte le decisioni in termini di violazione o meno dei diritti della Convenzione riguardanti le parole chiave delle due precedenti sezioni. Da ciò, l’algoritmo effettua un raffronto con le parole chiave che descrivono il fatto del caso de quo e offre come output una previsione della decisione della Corte. Non v’è dubbio che un margine di errore che va dal 20 al 30% sembra ostativo a qualsiasi ambizione di sostituzione del giudizio di una Corte, espressione una pluralità di pensiero che la semplice statistica non riesce nemmeno a descrivere, limitandosi all’esito binario violazioneviolazione delle decisioni. Eppure, ancora una volta, il pragmatismo dei proponenti, che si limitano a proporre tale strumento come integrazione di un insostituibile giudizio umano, obbliga l’interprete a riconsiderare il ruolo dei tools nel processo. Un risultato fallimentare come il 21% di previsioni errate può anche essere letto come incidenza della tendenza a conformarsi al precedente nel 79% delle decisioni, su cui tutte le teorie bayesiane, a ben guardare, scommettono.

Sulla medesima scommessa teorica, una società privata francese ha sviluppato e messo in vendita un software rivolto agli avvocati del tutto simile a quello sviluppato dall’U.C.L. per la previsione dichiaratamente solo probabile degli esiti di una causa, sommariamente descritta alla luce di precedenti decisioni processate in un database costantemente aggiornato[131]. L’obiettivo dichiarato dagli sviluppatori è, anche in questo caso, fornire un contributo per «testare la tenuta delle argomentazioni e scegliere la strategia migliore» attraverso il calcolo delle probabilità di vittoria della causa, ottimizzando le risorse intellettuali e di tempo. Per altro, il sito suggerisce di ricorrere all’algoritmo ivi proposto anche per conoscere i margini di successo o meno della lite, e negoziare di conseguenza attraverso il ricorso agli istituti alternativi al giudizio. Nel campo delle alternative dispute resolution, i rischi connessi allo scorretto uso degli algoritmi di giustizia predittiva sono amplificati, posto che non è inimmaginabile che i privati si affidino ad essi in via esclusiva, per la definizione apparentemente “oggettiva” delle controversie.

In Italia l’eco di questi metodi formali applicati al processo penale, tanto affascinanti quanto pericolosi, è giunta con un certo ritardo, a parte qualche pronuncia di giudizi nazionali che sporadicamente hanno adottato il teorema di Bayes[132]. Ancora di recente il Tribunale di Milano[133] ha fatto uso del bayanesimo giuridico per escludere che un’impronta dattiloscopica, quand’anche sicuramente lasciata dal colpevole e verificata con un errore inferiore al 99.9%, sia in sé sufficiente per suffragare una sentenza di condanna. Ciò, in quanto tale dato deve essere inserito all’interno di una logica combinatoria di tipo bayesiano, nella quale P(H|E) è data dal raffronto di tutte le risultanze disponibili e, ove queste individuino un quoziente di verosimiglianza inferire a 1 (screditando l’ipotesi accusatoria), il dato potrebbe non raggiungere nemmeno lontanamente la soglia critica del ragionevole dubbio, comunque la si intenda determinare. Nel caso di specie, partendo da una probabilità iniziale di colpevolezza pari a 0,1 % sulla base delle altre risultanze istruttorie, la prova scientifica con un margine di attendibilità pari a 99,9% offre una probabilità di colpevolezza pari soltanto al 50%[134]. A questi timidi tentativi di trasporre gli algoritmi predittivi e abduttivi al processo penale italiano, si deve aggiungere il KeyCrime[135], in uso dal 2007 presso la Questura di Milano per la prevenzione e repressione di reati seriali e, in particolare, rapine seriali nel contesto territoriale di riferimento. Attraverso la raccolta dei dati relativi a tutte le rapine già accertate definitivamente nel milanese, il KeyCrime individua i trend comuni tra i vari reati attribuiti a ciascun soggetto, nonché le connessioni statisticamente frequenti tra caratteristiche personali[136]. Oltre ad incoraggianti risultati sul piano di previsione e prevenzione mirata, il KeyCrime combina i big data a disposizione con le informazioni raccolte sul luogo del delitto, giungendo a profilare un possibile responsabile, già noto o ancora ignoto. Rinviando ad altra sede lo studio degli effetti che la applicazione di un simile software comporterebbe sul nostro garantismo penale, ci si limita a constatare che l’indagine giudiziaria ne risulterebbe mutata e indirizzata non solo alla raccolta degli elementi di prova, ma anche dei dati personali dell’indagato apparentemente irrilevanti, ma necessari per consentirne un raffronto con il profilo fornito dal KeyCrime[137].

7. Conclusioni. L’Umanesimo digitale e il diritto ad un giudizio umano

Molto tempo è ormai passato da quando, nel 1949, Jerome Frank teorizzava il ricorso ai calcolatori al processo per l’applicazione oggettiva delle norme giuridiche, mostrando una netta insofferenza per le incertezze del giudizio umano[138]. Oggi, come si è visto, l’epistemologia giudiziaria si è spinta ben oltre, lanciando sfide inedite che la dottrina, la giurisprudenza e, in primis, il legislatore si trovano oggi costretti ad affrontare.

Non si può negare che la re-ontologizzazione dell’indagato come ente informazionale[139] – essenziale per consentire il funzionamento dei tools sopracitati – comporti la necessità di ridefinire i tradizionali termini del garantismo penale, nell’accezione “allargata” proposta da Ferrajoli quale «modello teorico e normativo di diritto penale in grado di razionalizzare e minimizzare la violenza dell’intervento punitivo vincolandolo – nella previsione legale dei reati, come nel loro accertamento giudiziario – a limiti rigidi imposti a tutela dei diritti della persona»[140]. Tra questi, inevitabilmente, il diritto alla privacy, declinato nella sua massima espressione di diritto al corretto utilizzo dei propri dati personali e al minor sacrificio possibile per il perseguimento degli obiettivi di giustizia penale. Invero, l’Umanesimo digitale passa anche per la giustizia penale ed esige che il progresso tecnologico applicabile alla ricerca e alla valutazione della prova sia quanto prima filtrato dal legislatore, nel suo insostituibile ruolo di regolatore per la minimizzazionedel potere giudiziario. Rivendicare una dimensione digitaledel garantismo penale obbliga a interrogarsi sulla ragionevolezza dell’enorme sacrificio imposto alla privacy dell’imputato da strumenti di indagine come la profilazione e del crime linkage, a fortiori a seguito dell’obbligo europeo di condivisione dei dati personali per la repressione dei reati imposto dalla Direttiva Ue 680/2016.

Molti interrogativi sorgono anche sotto il profilo dei principi Daubert[141], posto che i meccanismi di funzionamento degli algoritmi di crime Analysis sono per lo più coperti dal segreto industriale, rendendo impossibile la verificabilità, la sottoposizione al controllo della comunità scientifica e la precisa determinazione del tasso di errore[142]. Inoltre, assai serio è il rischio di discriminazione sulla base di alcuni dati personali sensibili, tra cui la razza e l’estrazione sociale, evidenziato in innumerevoli studi che la più attenta dottrina americana ha proposto per contrastare il crescente affidamento delle Corti di merito a tools come Compas[143].

Come si è anticipato, il più grande vulnus di simili approcci rimane la mancanza di individualizzazione della decisione, con l’inaccettabile asservimento alla nuda statistica delle peculiarità del caso concreto; il che impone di ridimensionarne il ruolo nell’accertamento giudiziale dei fatti e nella valutazione delle prove. Sembra esserne consapevole anche il legislatore europeo della Direttiva Ue 680/2016 il quale, pur incentivando il ricorso al profiling e ai tools di elaborazione e combinazione di dati in fase di investigazione, si premura di esigere che «una decisione basata unicamente su un trattamento automatizzato, compresa la profilazione, che produca effetti giuridici negativi o incida significativamente sull’interessato [debba essere] vietata». Unica eccezione è la presenza di un’autorizzazione da parte del diritto dello Stato membro o dell’Unione europea, previa concessione di adeguate tutele per l’interessato, tra cui l’ineliminabile «diritto ad ottenere l’intervento umano da parte di un titolare del trattamento»[144].

Ciò dimostra che, fuori dall’Italia, il dibattito sull’applicazione degli algoritmi al processo penale è ormai giunto ad una fase avanzata, in cui non è più in discussione l’an, bensì il quomodo. Il diritto al giudizio umano così chiaramente scolpito dal legislatore europeo assurge a sintesi di un nuovo garantismo digitale, in grado di restituire all’intime conviction un ruolo probabilmente ridimensionato, ma non totalmente sacrificato sull’altare dell’illusoria ambizione di ottenere l’oggettività nei giudizi tramite il ricorso al calcolo aritmetico.

In conclusione, a dispetto delle apparenze iniziali, l’inesorabile sviluppo della matematica del processo sembra offrire realmente al sistema giudiziario un compendio di algoritmi cognitivi sempre più sofisticati, in grado di supportare– non surrogare – il giudicante nel perseguimento di una maggiore prevedibilità delle decisioni ed eliminazione delle anamorfosi. Al contempo, però, i rischi sottesi all’uso commerciale e all’abuso dei mathematical tools nel processo sono tanto significativi e permeanti da rendere improcrastinabile l’individuazione di criteri per discernere tra algoritmi utili al giudizio e junk science. Compito a cui nessuno, tantomeno il legislatore, può sottrarsi. D’altronde, le colonne d’Ercole sembrano già alle spalle.

[1] P. Calamandrei, Verità e verosimiglianza nel processo civile, in Riv. Dir. Proc. Civ., III, 1955, p. 164, in richiamo a A. Wach, Vorträge über die Reichs-Civilprocessordnung, II ed., A. Marcus, Boan, 1896, p. 226.

[2] F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, in Riv. it. dir. proc. pen., 2009, p. 54.

[3] G. Canzio, Il giudizio di cassazione tra verità e dubbio, in L. Zilletti - E. Rosso (a cura di), Il giudizio di cassazione nel processo penale, Giuffrè, Milano, 2011, pp. 36 ss.

[4] Cfr. C. Zaza, Il ragionevole dubbio nella logica della prova penale, Giuffrè, 2008, p. 50. Come noto, assai raramente il processo conosce casi in cui un conseguente sia univocamente derivabile da un solo antecedente, sicché all’epistemologia giudiziaria viene richiesto di compiere una scelta tra le diverse ipotesi ricostruttive. Non può essere, infatti, revocato in dubbio che gli impulsi retroduttivi che innervano il giudizio «costituiscono il supporto indispensabile» (F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, cit., p. 54) per risalire dal probans noto al probandum ignoto. In particolare, il ragionamento probatorio si caratterizza piercianamente per un ben più articolato compendio di fattori inferenziali: «dall’abduzione, che consente la formulazione di nuove ipotesi, alla contestazione dialettica delle ipotesi stesse, da passaggi deduttivi ad inferenze probabilistiche, dal ricorso alle nozioni del senso comune all’uso di prove scientifiche» (M. Taruffo, Sui confini. Scritti sulla giustizia civile, Il Mulino, Bologna, 2002, pp. 327 ss.). A ben guardare, infatti, la formulazione abduttiva di un’ipotesi è solo il primo degli ingranaggi del meccanismo conoscitivo, improntato alla selezione, tra tutte le possibili spiegazioni casuali, della «inference to the best explanation»idonea a superare la soglia del ragionevole dubbio. Sul punto, ci si limita a limitare a rinviare a H. Putnam, Mind, Language and Reality, Cambridge University Press, Cambridge, 1979 e C. Pizzi, Diritto, abduzione e prova, Giuffrè, Milano, 2009.

[5] G. Capograssi, Giudizio, processo, scienza, verità (1950), in ID, Opere, vol. V, Giuffrè, Milano, 1959, p. 6.

[6] Nemmeno la mera positivizzazione del ragionevole dubbio e l’articolo 497 cpp sembrano, a ben guardare, smentire tale radicato disinteresse. Cfr. chiaramente F. Caprioli, Verità e giustificazione nel processo penale, in Riv. it. Dir. proc. pen., 2013, p. 609.

[7] Cass., Sez. un., sentenza n. 30328/2002, Franzese, in Cass. pen., 2002, pp. 3643 ss.

[8] Sulla probabilità oggettiva si v. A. I. Goldman, Epistemology and Cognition, M.I.T. Press, Cambridge-London, 1986, pp. 312 ss.; G. Shafer, The construction of Probability Arguments, in B.U.L. Rev. 1986, pp. 799 ss., nella trad. It. ID, La costruzione degli argomenti probabilistici, in P. Tillers - E.D. Green (a cura di), L’inferenza probabilistica nel diritto delle prove. Usi e limiti del bayesianesimo, Giuffrè, Milano, 2003, p. 275 ss. e C. R. Callen, Notes on A Grand Illusion: Some Limits on the Use of Bayesian Theory in Evidence Law, in Ind. Law Journal, 1982, p. 3.

[9] Uno dei primi autori a parlare di probabilità “soggettiva” è Ramsey, in F.P. Ramsey, Verità e probabilità (1926), in ID, I fondamenti della matematica e altri scritti di logica, trad. it., Feltrinelli, Milano, 1964. Di poco successivo, e autonomo rispetto al precedente inglese, è il contributo di De Finetti, in B. De Finetti, Sul significato soggettivo della probabilità, in Fundamenta Mathematicae, XVII, 1931, pp. 298 ss. Nella stessa direzione anche L.J. Savage, The Fundations of Statistics, John Wiley & Sons, New York, 1954, che però suggerisce l’abbandono dell’ambigua formula “probabilità soggettiva”, in favore di una “probabilità personale”, per altro già chiaramente espressa nella precedente formulazione come personal degree of belief.

[10] Sulla sostanziale equiparabilità sotto il profilo della accezione soggettiva e della stima della probabilità in termini di previsione di eventi futuri o abduzione di eventi passati, v. R. Eggleston, Prova, conclusione probatoria e probabilità, Giuffrè, Milano, 2004, pp. 10 ss. e pp. 315 ss. Si rinvia a quanto si dirà nel paragrafo conclusivo del presente contributo circa l’algoritmo prognostico Compas. Sulla necessità di distinguere la struttura del ragionamento abduttivo da quello deduttivo previsionale, si rinvia a F. Caprioli, Pericolosità sociale e processo penale, in M. Pavarini - L. Stortoni (a cura di), Pericolosità e giustizia penale, Bononia University Press, Bologna, 2013, pp. 21 ss, nel quale si legge che «non si tratta di ricostruire un comportamento umano appartenente al passato ma di prevedere un comportamento umano futuro. Il giudice dunque non ragiona abduttivamente, come fa quando è chiamato a stabilire se l’imputato è innocente o colpevole: non formula ipotesi sulla base delle evidenze a sua disposizione per poi scegliere l’ipotesi migliore, non cerca spiegazioni di fatti del presente (le prove) in fatti del passato. Come ogni ragionamento prognostico, la valutazione di pericolosità sociale ha natura deduttiva: muove dall’antecedente al conseguente, dalla causa all’effetto e non viceversa». Contra M. Taruffo, Sui confini. Scritti sulla giustizia civile, Il Mulino, Bologna, 2001, p. 334.

[11] Trattandosi di un dato difficilmente quantificabile è stato suggerito il ricorso alla cd. “propensione a scommettere” della teoria dei giochi, più avvezzi a gestire gradi soggettivi di convincimento e di valutazione. In questo senso F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, cit., p. 56. Cfr. anche M. Taruffo, La prova dei fatti giuridici, in AA.VV., Trattato di diritto civile e commerciale, III, Giuffrè, Milano, 1992, p. 179, il quale nota come il coinvolgimento della teoria dei giochi e delle scommesse complica estremamente il modello matematico quantitativo, senza fornire per altro alcuna spiegazione soddisfacente sulla modalità di formazione della credenza. In forte critica si esprimono G. Shafer, La costruzione degli argomenti probabilistici, cit., pp. 282 ss. e L. Brilmayer, Prove del secondo ordine e logica bayesiana (1986), trad. it., in P. Tillers - E.D. Green (a cura di), L’inferenza probabilistica nel diritto delle prove. Usi e limiti del bayesianesimo, cit., pp. 221 ss.

[12] M. Taruffo, La prova dei fatti giuridici, cit., p. 169.

[13] Cfr., per un cenno, per esempio J. Cohen - I. Christensen, Information and Choice, Oliver and Boyd, Edimburgo, 1970. M. Taruffo, La prova dei fatti giuridici, cit., p. 168, richiamando D. H. Kaye, Introduzione: che cos’è il bayesianesimo?, in P. Tillers - E.D. Green (a cura di), L’inferenza probabilistica nel diritto delle prove. Usi e limiti del bayesianesimo, cit., p. 5, ricorda che ne sono state calcolate fino a sette, senza per altro che si possa dire completo l’elenco.

[14] Così battezzata da Cohen in richiamo a Pascal, cui va il merito di aver superato le ambizioni di certezza della gnoseologia, in favore di una probabilità semplice, intuitiva. Per una ricostruzione della concezione pascaliana, in contrapposizione con quella baconiana, v. G. Licci, La metafora della casualità giuridica, Jovene, Napoli, 2011, pp. 91 ss.

[15] M. Taruffo, La prova dei fatti giuridici, cit., p. 168.

[16] F. Stella, Giustizia e Modernità, Giuffrè, Milano, 2001, pp. 361 ss. Per altro, è proprio sulla sua elaborazione in ambito giudico del paradigma nomologico-deduttivo che un simile orientamento si basa, volgendolo in termini probabilistici sì alti da poter essere paragonati alle leggi universali. Infatti «è possibile enunciare delle conclusioni che sono “quasi certe” o “quasi vere” se le leggi statistiche, impiegate nelle premesse, sono “quasi universali”, perché provviste di un coefficiente percentualistico vicinissimo al 100% dei casi» (Ibidem, 361). 

[17] C. Piergallini, La regola dell’“oltre ogni ragionevole dubbio” al banco di prova di un ordinamento di civil law, in M. Bargis - F. Caprioli (a cura di), Impugnazioni e regole di giudizio nella legge di riforma del 2006, Giappichelli, Torino, 2007, p. 384.

[18] Ex multis, si segnala Cass., Sez. IV, sent. n. 1652/2002, in Riv. it. Dir. proc. pen., 2002, pp. 737 ss., con nota di F. D’Alessandro, La certezza del nesso causale: la lezione ‘antica’ di Carrara e la lezione ‘moderna’ della Corte di cassazione sull’“oltre ogni ragionevole dubbio”.

[19] F. D’Alessandro, Spiegazione causale mediante leggi scientifiche, a dieci anni dalla sentenza Franzese, in Criminalia, 2012, p. 332.

[20] In questa direzione, per esempio, Cass., Sez. IV, sent. n. 4320/1983, in Foro it., 1986, II, pp. 351 ss. ove si afferma che «quando è in gioco la vita umana anche solo poche probabilità di successo di un immediato o sollecito intervento sono sufficienti, talché sussiste il nesso di causalità quando un siffatto intervento non sia stato possibile a causa dell’incuria colpevole del sanitario che ha visitato il paziente» (Rv. 158947). Similmente si v. anche Cass., Sez. IV, sent. n. 7118/1989, in Cass. pen., 1990, pp. 1278 ss. e Cass., Sez. IV, sent. n. 1846/1991, in Foro it., 1992, pp. 363 ss. Ancor più netto è il distacco dalla concezione quantitativa che si riscontra in Cass., Sez. IV, sent. n. 360/1993, inedita, ove si legge che «sussiste responsabilità del medico che colposamente ometta un intervento chirurgico necessario, quando anche esso non sia tale da garantire in termini di certezza la sopravvivenza del paziente, se vi sia una limitata, purché apprezzabile, probabilità di successo, indipendentemente da una determinazione matematica percentuale di questa» (Rv. 201554).

Per ulteriori riferimenti giurisprudenziali si rinvia a F. D’Alessandro Spiegazione causale mediante leggi scientifiche, a dieci anni dalla sentenza Franzese, cit., p. 332, nota 2.

[21] Cfr. C. Piergallini, La regola dell’“oltre ogni ragionevole dubbio” al banco di prova di un ordinamento di civil law, cit., p. 388. Per una ricostruzione del dibattito giurisprudenziale in tema di logiche probabilistiche e nesso causale v. L. Masera, La malattia professionale e il diritto penale, in Diritto Penale Contemporaneo online, 10 novembre 2011, pp. 4 ss.

[22] F. D’Alessandro, Spiegazione causale mediante leggi scientifiche, a dieci anni dalla sentenza Franzese, cit., p. 333.

[23] C. Piergallini, La regola dell’“oltre ogni ragionevole dubbio” al banco di prova di un ordinamento di civil law, cit., p. 390.

[24] Cass., Sez. un., sentenza n. 30328/2002, Franzese, cit. Sul punto, significativo è il monito di Canzio, estensore della sentenza, per il quale «a nessuno, neppure al giudice penale, è consentito dedurre fatti da norme» (così in G. Canzio, La causalità tra diritto e processo penale: un’introduzione, in Cass. pen., 2006, 1978). Cioè, quale che sia il coefficiente percentualistico della legge scientifica, quest’ultima da sola non basta, occorrendo piuttosto ciò che D’Alessandro efficacemente chiama la «prova della concretizzazione della generalizzazione nel caso di specie» (F. D’Alessandro, Spiegazione causale mediante leggi scientifiche, a dieci anni dalla sentenza Franzese, cit., p. 340).

[25] Tra i primi, si v. M. O. Finkelstein - W. B. Fairley, A Bayesian Approach to Identification Evidence, in Harv. L. Rev., 1970, 489 ss.; C. Nesson, Reasonable doubt and Permissive Inference: the Value of Complexity, in Harv. L. Rev., 1979, 1187 ss.; D. Shaviro, Statistical Probability Evidence and the Appearance of Justice, in ibidem, 1989, pp. 530 ss.; R. O. Lempert, Statistics in the Courtroom, in Columbia L. Rev., 1985, pp. 1098 ss.; D. Kaye, Quantifying Probative Value, in B.U.L. Rev., 1985, p. 761; G. Shafer, The construction of Probability Arguments, in ibidem, 1986, pp. 799 ss.; D. A. Nance, A comment on the Supposed Paradoxes of a Mathematical Interpretation of the Logic of Trials, in ibidem, 1986, p. 947 e L. J. Cohen, An Introduction to the Philosophy of Induction and Probability, Oxford University Press, Oxford, 1989.

[26] Su cui, recentemente, A. Forza - R. Rumiati - G. Menegon, Il giudice emotivo. La decisione tra ragione ed emozione, Il Mulino, Bologna, 2017.

[27] Cfr., su tutti, l’analisi sociologica di R.E. Nisbett - L. Ross, L’inferenza umana. Strategie e lacune del giudizio sociale (1980), Il Mulino, Bologna, 1989, spec. pp. 39 ss., pp. 67 ss., pp. 108 ss., pp. 123 ss., pp. 159 ss., ma anche R. Rumiati, Giudizio e decisione. Teorie e applicazioni della psicologia della decisione, Il Mulino, Bologna, 1990, p. 18 e pp. 53 ss., nonché J. Cohen - I. Christensen, Information and Choice, Oliver & Boyd, Edimburgo, 1970, pp. 88 ss. Nel test riportato in W.B. Fairley, Probabilistic Analysis of Identification Evidence, in Journal of Legal Studies, 1973, pp. 494 ss. a una serie di soggetti privi di competenze statistiche viene richiesto di calcolare le probabilità che su 12 gettoni ne venissero estratti almeno 7 verdi dall’urna contenente gettoni al 70% verdi. Dall’esperimento è emersa una vera e propria tendenza a sottostimare, a fronte di una probabilità matematica corretta pari al 97,7%, riscontrandosi percentuali medie tra il 60% e l’80%.

[28] Cfr. G.W. Leibniz, Elementi di diritto perpetuo (1695), in Id, Scritti politici e di diritto naturale, Utet, Torino, 1965. Ibidem, p. 191 si legge quello che potrebbe essere considerato il manifesto fondativo della matematica del processo: «vi è chi nega che il diritto sia una scienza perché non concerne le cose necessarie, ma il “per lo più”, mentre la scienza non si ha che delle cose eterne. Io ritengo che anche i fondamenti del diritto siano eterni, e che anche delle cose che accadono per lo più possa darsi una scienza di eterna verità, quando si venga a conoscere il fondamento di probabilità e il grado di probabilità stessa: come vediamo nelle dimostrazioni che i matematici fanno sul rischio».

Per una pregevole presentazione del contributo di Leibniz si v. I. Hacking, L’emergenza della probabilità. Ricerca filosofica sulle origini delle idee di probabilità, induzione e inferenza statistica, il Saggiatore, Milano, 1987, p. 22, pp. 101 ss., P. Garbolino, Probabilità e logica della prova, Giuffrè, Milano, 2014, pp. 123 ss., nonché Id, Strumenti matematici e informatici per il ragionamento giudiziario: le reti bayesiane, in Cass. Pen., 2007, pp. 326 ss.

[29] Si v. per esempio P.S. De Laplace, Saggio filosofico sulle probabilità (1814), in Id, Opere, Utet, Torino, 1967, pp. 341 ss. Cfr. A. Mura, Introduzione. Per un bayesianesimo critico, in P. Tillers - E.D. Green (a cura di), L’inferenza probabilistica nel diritto delle prove. Usi e limiti del bayesianesimo, cit., XII.

[30] L. Ferrajoli, Diritto e ragione. Teoria del garantismo penale, Laterza, Roma, 1991, p. 111.

[31] Cfr. E.M. Catalano, Prova indiziaria, probablistic evidence e modelli matematici di valutazione, in Riv. dir. proc., 1996, pp. 517 ss.

[32] L. Luparìa, Trial by probabilities. Qualche annotazione “eretica”, in M. Cucci - G. Gennari - A. Gentilomo (a cura di), L’uso della prova scientifica nel processo penale, Maggioli Editore, Rimini, 2012, p. 95. Esigenza, questa, che non può non essere considerata dalla concezione qualitativa, nella quale il ricorso alla prova statistica, come si vedrà, si mantiene come utilissimo strumento indirettamente euristico (si v. C. Brusco, Il rapporto di causalità: prassi e orientamenti, Giuffrè, Milano, 2012, pp. 134 ss.).

[33] Il Teorema di Bayes reca il nome del teologo e matematico inglese Thomas Bayes, al quale si deve il primo tentativo di far uso induttivo della probabilità, come riportato in un suo articolo postumo: T. Bayes, Saggio sulla soluzione di un problema della dottrina delle chances (1763), trad. it., in P. Garbolino (a cura di), Sulla probabilità, Librit, Ferrara, 1994. Sulla incidenza della concezione soggettiva della probabilità sulla scuola bayesiana, si v. H.E. Kyburg, Probability theory, Prentice Hall, New York, 1969.

Sembra utile riportare anche la definizione offerta in P. Cherubini, Fallacie nel ragionamento probatorio, in L. De Cataldo Neuburger (a cura di), La prova scientifica nel processo penale, Cedam, Padova, 2007, p. 251, ove si legge che il teorema di Bayes si può designare come «funzione logico-probabilistica che descrive la procedura corretta per revisionare la fiducia verso un’ipotesi alla luce di un insieme di prove».

[34] Si riprendono e si rielaborano i diversi esempi di Mura, riportati in A. Mura, Introduzione. Per un bayesianesimo critico, cit., XV ss. e Id, Teorema di Bayes e valutazione della prova, in G. Ubertis (a cura di), Prospettive interdisciplinari per la giustizia penale, in Cass. Pen., 2004, p. 1809.

[35] In F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, cit., p. 57, nota 25 si riporta un esempio ricorrente nella dottrina sul tema. L’ipotesi che il testimone abbia deposto a sfavore di Caio «perché Caio ha effettivamente ucciso Sempronio» risulta più probabile rispetto all’evenienza di una falsa testimonianza. In tal caso il quoziente di verosimiglianza della testimonianza è maggiore di 1.

[36] Così P. Garbolino, Introduzione, in P. Gärdenfors - B. Hansson - N. E. Sahlin (a cura di), La teoria del valore probatorio. Aspetti filosofici, giuridici e psicologici, Giuffrè, Milano, 1997, XV.

[37] Cfr. A. Mura, Teorema di Bayes e valutazione della prova, cit., p. 1812.

[38] In particolare, una prova si mostra logically relevant solo ove il quoziente sia diverso da 1, rispecchiando pienamente il dettato della Rule 401 della Federal Rule of Evidence statunitense, per la quale «evidence having any tendency to make the existence of any fact that is of consequence to the determination of the action more probable or less probable than it would be whithout the evidence». 

[39] Cfr. P. Garbolino, Introduzione, cit., XIV; R. Eggleston, Prova, conclusione probatoria e probabilità, cit., p. 15 e A. Mura, Teorema di Bayes e valutazione della prova, cit., pp. 1810 ss.

[40] Cfr. M. Black, Induction and Probability, Macmillan Publishing Company Inc, New York, 1984, pp. 117 ss.

[41] Così R.O. Lempert, Modeling Relevance, in Mich. L. Rev., 1977, p. 1031.

[42] Sulla necessità di parlare di ricalcolo e non di correzione di precedenti errori si rinvia a B. De Finetti, Teoria delle probabilità, Einaudi, Torino, 1970, pp. 244 s.

[43] Cfr., ex multis, anche L.H. Tribe, Processo e matematica: precisione e rituale nel procedimento giudiziario, trad. it., in F. Stella (a cura di), I saperi del giudice. La casualità e il ragionevole dubbio, Giuffrè, Milano, 2004, passim, spec. pp. 206 ss.;M. Cohen - E. Nagel, An introduction to Logic and Scientific Method, Brace & World Inc., New York, 1934; C. Scandelari, Sulle argomentazioni probabilistiche in clinica, in U. Vincenti (a cura di), Diritto e clinica. Per l’analisi della discussione del caso, Cedam, Padova, 2000, pp. 84 s.

[44] In A. Mura, Teorema di Bayes e valutazione della prova, cit., 1813 si precisa che risulta totalmente equivalente applicare la formula sequenziale con n prove di volta in volta aggiunte, ovvero utilizzare la formula “statica”:

coinvolgendo in essa tutti i valori P(H|En) in una sola soluzione. Per altro la formula iterativa ivi offerta, si discosta dalla presente, oltre che per l’uso di varianti equivalenti (ibidem, 1811), per l’espressione non in termini percentuali, ma in scala unitaria 0 → 1.

[45] F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, cit., p. 58. È chiaro che l’utilizzo di una scala 0 → 1 non consenta di sforare la soglia limite, corrispondente al grado pieno di convinzione (vale a dire il 100%) della fondatezza dell’accusa H da parte di G. Un numero molto elevato di prove, anche nel caso di forte discordanza, andranno a stabilizzare il quoziente complessivo, non certo ad aumentare ex se la soglia di convincimento. Si prenda ad esempio il caso in cui si disponga di 10 prove (E), cui, per nove di esse, P(H|E1,9) si attesta costantemente al 90%. Ove anche l’ultima evenienza desse come rapporto di Bayes una cifra percentuale pari al 90%, la soglia complessiva (iterativa) rimarrebbe al 90%, rendendo però al tempo stesso statisticamente più attendibile il dato.

[46] D.H. Kaye, Abbiamo bisogno d’un calcolo del peso probatorio?, in P. Tillers - E.D. Green (a cura di), L’inferenza probabilistica nel diritto delle prove. Usi e limiti del bayesianesimo, cit., p. 204.

[47] Chiaramente, a seconda che la soglia critica sia inclusa entro il margine di dubbio ragionevole o meno si avrà una probabilità soggettiva P richiesta almeno pari o superiore (≥) a P* ovvero esclusivamente superiore (>) a P*.

[48] Ibidem.

[49] L.J. Cohen, Il ruolo del peso probatorio nella prova penale, in P. Tillers - E.D. Green (a cura di), L’inferenza probabilistica nel diritto delle prove. Usi e limiti del bayesianesimo, cit., p. 173.

[50] M. Taruffo, La prova dei fatti giuridici, cit., 170, ove non si condivide pienamente tale entusiasmo.

[51] L.H. Tribe, Processo e matematica: precisione e rituale nel procedimento giudiziario, cit., p. 233. Ivi (ma similmente anche ibidem, pp. 385 ss.) si legge che, anche fissando una soglia apparentemente molto alta di probabilità richiesta ai di superare il ragionevole dubbio come il 95%, si lascia comunque un margine di dubbio misurabile nel 5% (0,05 nella scala 0 →1). Ebbene, Tribe sostiene che «ci sia qualcosa di intimamente immorale nel condannare un uomo definendolo un criminale, dicendo a se stessi “credo che ci sia la probabilità di uno a venti che questo accusato sia innocente, ma sono disposto a correre il rischio di 1/20 di sacrificarlo erroneamente, nell’interesse della sicurezza pubblica e mia personale”». Forse, più propriamente, Tribe giudica “immorale” fissare una soglia una volta per tutte di dubbio ragionevole, che significa ammettere una certa soglia di rischio di condannare un innocente. È sicuramente un argomento persuasivo, generalmente condivisibile, ma non valido per ritenere a contrario moralmente corretta la concezione qualitativa, che tra i tanti pregi, non può certo vantare un superamento totale di questo rischio.

[52] Cfr. F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, cit., p. 59.

[53] L.J. Cohen, Il ruolo del peso probatorio nella prova penale, cit., p. 177.

[54] Come si legge ibidem, 173, «il criterio di prova richiede […] un elevato grado di probabilità assoluta, piuttosto che un elevato livello di probabilità subordinata», ove la prima corrisponde fondamentalmente all’esito della valutazione di un dato probatorio non carente, e la seconda risulta, pur in coerenza con gli assiomi probabilistici, scarsamente affidabile. Si tratta di una differenza fondamentale, dalle evidenti implicazioni sotto il profilo epistemico e dell’obbligo di motivazione. Per coglierne la portata è sufficiente riportare l’esempio con cui Cohen presenta la differenza tra probabilità assoluta e subordinata, con la deduzione intuitiva dei chiari rischi sul piano processuale che la valutazione di attendibilità della seconda, se confusa con la prima, comporta. Ibidem, pp.177s s. si legge: «S’immagini una lotteria con tanti biglietti quanto si vuole e con un solo biglietto vincente. Allora la proposizione che Tizio non è il vincitore può avere, sulla base delle informazioni disponibili in merito al numero totale dei biglietti che partecipano all’estrazione, una possibilità subordinata grande a piacere. Ma sarebbe certamente sciocco inferire un’altissima probabilità assoluta che il biglietto di Tizio non è il biglietto vincente. Si avrebbe qualche ragione per dubitare della validità di tale inferenza sino a quando non si sapesse che la lotteria è stata condotta equamente. Per esempio, se fosse un fatto che Tizio è un bandito e che i suoi compagni armati controllano l’estrazione, questo fatto farebbe parte della totalità dei fatti che una persona ragionevole può ritenere pertinenti alla conclusione. Di conseguenza, la probabilità della conclusione sulla base di questa totalità di fatti sarebbe di parecchio inferiore alla probabilità sulla base delle prove che erano originariamente disponibili».

[55] M. Taruffo, La prova dei fatti giuridici, cit., pp. 222 ss., nota 13.

[56] Cfr. D.H. Kaye, Abbiamo bisogno d’un calcolo del peso probatorio?, cit., pp. 206 ss.

[57] F. Caprioli, voce “Condanna” (dir. proc. pen.), in Enc. Dir., Annali, v. II, t. I, Giuffrè, Milano, 2008, p. 117, nota 137.

[58] D.H. Kaye, Abbiamo bisogno d’un calcolo del peso probatorio?, cit., p. 210.

[59] Cfr. D. Lindley - R. Eggleston, The Problem of Missing Evidence, in Law Q. Review, 1983, p. 86.

[60] In D.H. Kaye, Abbiamo bisogno d’un calcolo del peso probatorio?, cit., 220 si rinviene una certa fiducia, critica e non certo bieca, nelle potenzialità delle basi probabilistiche del giudizio. Kaye infatti scrive: «Sebbene sia possibile che tutti i tentativi di spiegare le basi logiche o empiriche della probabilità soggettive giustificabili siano destinati a fallire, ritengo che sia troppo presto per abbandonare questa linea di ricerca. Pertanto, il messaggio che ho cercato di comunicare nella polemica con Cohen non è che la sua teoria è falsa, ma che la sua campagna contro le teorie che impiegano probabilità numeriche per analizzare il giudizio di merito nel procedimento giudiziario deve ancora aggiudicarsi una vittoria decisiva. Tali teorie hanno ormai una sufficiente ricchezza da produrre comprensione del diritto delle prove, ed esse sono suscettibili d’ulteriore raffinamento e integrazione».

[61] M. Taruffo, La prova dei fatti giuridici, cit., p. 222. Cfr. anche F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, cit., p. 60.

[62] Cfr. G. Shafer, A Mathematical Theory of Evidence, Princeton University Press, Princeton-London, 1976, pp. 22 ss., ma anche, in ambito civilistico, R. J. Allen, A Reconceptualization of Civil Trial, in B.U.L.  Rev., 1986, p. 24, pp. 37 ss.

[63] M. Taruffo, La prova dei fatti giuridici, cit., p. 264.

[64] Se così non fosse, si aprirebbero scenari inediti, in cui, così come per condannare occorrerebbe una P(H|E) ≥ P*, per assolvere si pretenderebbe una P(H|E) ≤ Pf*, aprendo un varco intermedio tra Pf* e P* dove non potrebbe che concludersi con un non liquet poiché l’ipotesi accusatoria non risulta né vera né falsa. Un limbo euristico (quello rappresentato da Pf* ≤ P(H|E) ≤ P*)che, naturalmente, tutti gli ordinamenti processuali scongiurano, privilegiando ora la presunzione di innocenza, ora quella di colpevolezza, o ancora ricorrendo al principio di onere della prova nel processo civile, per colmare comunque la distanza rispetto alla soglia critica, evitando l’impasse.

[65] Cfr., ex multis, D. H. Kaye, Introduzione: che cos’è il bayesianesimo?, cit., 7 ss. e R. Rumiati, Giudizio e decisione. Teorie e applicazioni della psicologia della decisione, cit., 32 ss.

[66] M. Taruffo, La prova dei fatti giuridici, cit., p. 175.

[67] Il costo della precisione obbliga ad escludere dal calcolo bayesiano prior probabilities non fondate su basi oggettive, poiché non avrebbe senso alcuno architettare una struttura logica con componenti e linguaggi matematici, se poi il calcolo consequenziale non è fondato su basi quantitativamente affidabili (cfr. C.R. Callen, Notes on A Grand Illusion: Some Limits on the Use of Bayesian Theory in Evidence Law, cit., 4). Almeno in una concezione quantitativa, non sarebbe ammissibile il ricorso a dati probabilistici non oggettivi, ma prefissati sulla base di valutazioni soggettive intrinsecamente imprecise come ritenere che circa «il 90% dei testimoni che arrossiscono mente» (ibidem, p. 176).

[68] Significativo può essere l’esempio offerto J.F. Beltràn, La valutazione razionale della prova, Giuffrè, Milano, 2012, p. 110 per spiegare questo fenomeno. Ove sia necessario accertare se ad avere ucciso la vittima sia stato il fratello, il ricorso alle prove statistiche richiederebbe per esempio che si conosca la frequenza con cui gli uomini uccidono le proprie sorelle. Ma ciò non basterebbe. Si cerca allora di affinare il dato, cercando di conoscere la frequenza con cui uomini scapoli come l’imputato uccidano le proprie sorelle. E, ancora, quanti uomini scapoli, ultrasessantenni, uccidono le proprie sorelle. Ma è chiaro che, per quanto più fine il dato non è idoneo a cogliere il caso concreto. E le domande potrebbero proseguire all’infinito ambendo, al più, a cogliere con quanta probabilità, data la normalità dell’accadere, un imputato con le caratteristiche simili a quelle del caso de quo ha ucciso la vittima, ma mai il dato sarà pienamente trasponibile sul singolo individuo coinvolto, perché la statistica opera in termini generali per definizione. Ciò che «alla fine è fondamentale – scrive De Finetti – è avere come punto di partenza le probabilità iniziali degli eventi reali, senza che rilevi il modo in cui sono state valutate» (B. De Finetti, Inicial probabilities. a prerequisite for any valid induction, in Synthese, 1969, p. 14).

[69] Smith v. Rapid Transit, Inc., 317 Mass. 470, 58 N. E. 2d, 754.

[70] L.H. Tribe, Processo e matematica: precisione e rituale nel procedimento giudiziario, cit., p. 195, spec. nota 37, in riferimento al caso giudiziario del 1945 Smith v. Rapid Transit, Inc., 317 Mass. 469, 58 N. E. 2d, 754. L’eco di questo esempio ha generato un ampio dibattito sia in ambiente statistico che giuridico. In relazione a quest’ultimo si segnala C. Nesson, The Evidence or the Event? On Judicial Proof and the Acceptability of Verdicts, in Harv. L. Rev., 1985, pp. 1379 ss. e C.R. Callen, Adjudication and the Appearance of Statistical Evidence, in Tul. L. Rev., 1991, pp. 459 ss.

[71] Cfr. E.M. Catalano, Prova indiziaria, probablistic evidence e modelli matematici di valutazione, cit., pp. 526 ss.

[72] È proprio da questa valutazione che emerge, come si vedrà meglio in seguito, l’esigenza di adottare un modello di probabilità logica, in cui non rileva solo il dato statistico, ma anche ulteriori aspetti come, ad esempio, il grado di manutenzione. Sicché, ove la compagnia B non avesse provveduto a revisionare il sistema di frenata, il cui eventuale malfunzionamento è in grado di spiegare l’evento dannoso, la probabilità cambierebbe qualitativamente in modo ampiamente significativo. Cfr. J. Ferrer Beltràn, La valutazione razionale della prova, cit., p. 111. Chiaramente, una questione ancora diversa, ma altrettanto pregnante, è quella relativa alla precisione della classe di riferimento, poiché se si considera il dato fornito a livello di un’intera città, la frequenza potrebbe essere totalmente diversa in una determinata via, o ancora in una determinata via a una determinata ora.

[73] M. Taruffo, La prova dei fatti giuridici, cit., p. 178. Certo il discorso cambierebbe radicalmente se da ‘meno frequente’ si passa a ‘impossibile’, mentre un grado di frequenza bassissimo, per esempio un caso su mille, non dovrebbe alterare, almeno rigoristicamente, la valutazione.

[74] Così Smith v. Rapid Transit, Inc., cit., nella traduzione offerta in L. H. Tribe, Processo e matematica: precisione e rituale nel procedimento giudiziario, cit., p. 195, nota 37.

[75] Esempio proposto da L.J. Cohen, The Probable and the Provable, cit., p. 75, e ampiamente richiamato in dottrina. Si v. D.H. Kaye, The Paradox of the Gatecrasher and Other Stories, in Ariz. St. Law Journal, 1979, pp. 101 ss.; S.E. Fienberg, Gatecrasher, Blue Buses, and the Bayesian Representation of Legal Evidence, in B.U.L. Rev., 1986, pp. 693 ss. e B. V. Frosini, Le prove statistiche nel processo civile e penale, Giuffrè, Milano, 2002,  pp. 66 ss.

[76] Ragionare in termini di quantificazione delle probabilità, si è talvolta detto, consente di minimizzare il numero di errori nella ricostruzione dei fatti rilevanti (cfr., in relazione al processo civile, R. J. Allen, A Reconceptualization of Civil Trial, cit., 50 ss., ripreso in L. Brilmayer, Prove del secondo ordine e logica bayesiana, cit., p. 226 e N. J. Castellan (a cura di), Individual and Group Decision Making: Current Issues, Lawrence Erlbaum, Hillsdale, 1993, pp. 142 ss.). Se si ragiona in questi termini, nel caso di specie si dovrebbe ammettere che negare la responsabilità dello spettatore individuato e presunto non pagante sulla base del dato statistico espone a 501 possibilità di errore, contro 499 possibilità assumere una decisione priva di errori. La logica propenderebbe per cogliere questo rischio maggiore, accogliendo la domanda dell’organizzatore dello spettacolo per evitare di correre un rischio di errore più altro di quello di assenza di errori. Nel caso degli autobus, dove le percentuali sono più nette a sfavore della compagnia A e a favore della compagnia B, ciò appare ancora più fulgidamente.  Tuttavia, non si potrebbe ritenere giustificata una decisione che si basi solo su una probabilità di frequenza per la riduzione dell’errore. Si tratta, a ben guardare, di un azzardo in cui si conosce la frequenza dell’esito su cui scommettere, ma non si dice nulla sul piano specifico del caso de quo. Dalla probabilità di frequenza (“51 spettatori su 100 non hanno pagato il biglietto”) occorre passare a ciò che Ferrer Beltràn (in J. Ferrer Beltràn, La valutazione razionale della prova, cit., p. 99) chiama la “probabilità di proposizione”, cioè l’effettiva probabilità il soggetto in questione afferisca o meno a quella maggioranza di spettatori inadempienti, per la quale il solo dato statistico si mostra, sempre e inevitabilmente, insufficiente. 

[77] Parimenti, a nulla servirebbe sapere che il 98% dell’eroina presente sul suolo statunitense è importata illegalmente per avere integrata la fattispecie penale di occultamento di sostanza stupefacente illegalmente importata, se non operando una presunzione di colpevolezza. Si tratta di un altro esempio presentato in L. H. Tribe, Processo e matematica: precisione e rituale nel procedimento giudiziario, cit., p. 194, riferito al caso Turner v. United States, 396, U. S. 398 (1970). Invero, in questo caso la giuria fu istruita nel senso di tenere conto del dato statistico come vera e propria prova dell’importazione illegale, risultando improbabile che si realizzi il 2% di possibilità che l’eroina fosse importata illegalmente e, quindi, condannando l’imputato per la presunzione di importazione illegale secondo l’id quod plerumque accidit. Cfr. anche Learvy v. United States, 395 U. S. 6 (1969). Innumerevoli le critiche alla sterilità di una simile valenza probatoria della statistica, tra cui si v. R.D. Mosher, Statutory Criminal Presumptions: Reconciling the Pratical with the Sacrosant, in U. of Cal. L. Rev., 1970, pp. 157 ss.

[78] J. Ferrer Beltràn, La valutazione razionale della prova, cit., p. 106.

[79] Cfr. F. Schauer, Profiles, Probabilities and Stereotypes, Harvard University Press, Cambridge, 2003, pp. 101 ss. e il ben più risalente H. Reichenbach, The Theory of Probability. An Inquiry into the Logical and the mathematical Foundations of the Calculus of Probability (1949), II ed., University of California Press, Berkeley, 1971, pp. 465 ss.

[80] J. Ferrer Beltràn, La valutazione razionale della prova, cit., p. 109 (corsivo aggiunto).

[81] A. Stein, Foundations of Evidence Law, Oxford University Press, Oxford, 2005, pp. 84 ss. e L.J. Cohen, Twelve Questions about Keynes’s Concept of Weight, in British Journal of Philosphy of Science, 1985, pp. 265 ss.

[82] Sembra utile il richiamo al caso R. v. Sally Clark, 2003 Ewca Crim 1020, in cui una donna era stata accusata della morte di entrambi i figli all’età di poche settimane, dopo che la morte del secondo figlio per la stessa sindrome che si pensava avesse ucciso il primogenito (la cd. Sids, «sindrome di morte improvvisa del lattante»), rese altamente improbabile credere razionalmente all’ipotesi di una tragica fatalità. Dall’expert testimony emerse un dato statistico circa la probabilità di morte per Sids di due fratelli pari a 1 caso su 73.000.000. Un’ipotesi troppo remota per consentire alla difesa dell’imputata di coltivare il ragionevole dubbio circa spiegazioni causali alternative al duplice omicidio. Ciò a cui si assiste nel caso Sally Clark è l’associazione di eventi presumibilmente connessi tra loro dall’ipotesi accusatoria, tralasciando invece la possibilità che la correlazione operi, per esempio, su un piano di predisposizione congenita (su questo specifico punto si v. P. Cherubini, Fallacie nel ragionamento probatorio, in L. De Cataldo Neuburger, La prova scientifica nel processo penale, cit., pp. 278 ss., spec. nota 28). Presupposto per la congiunzione di dati probabilistici è l’indipendenza logica dei fatti (A e B) coinvolti, sostenuta dal perito, per il quale al verificarsi dell’uno si sarebbe potuto non verificare il secondo, senza la causa esterna idonea a spiegare entrambi, prima singolarmente poi nel loro insieme (come la predisposizione genetica). Sicché, la probabilità combinata dell’evento «morte per Sids» di un infante, pari a 1/8543, con la stessa possibilità per il secondogenito (1/8543 1/8543), rende estremamente improbabile su un piano strettamente statistico che la stessa madre subisca la perdita di entrambi i figli per una sindrome tanto rara (la cui morte per altro non comporta segni molto differenti dal soffocamento meccanico). Tanto è bastato per ritenere l’imputata colpevole oltre ogni ragionevole dubbio. Come fa notate Cherubini, «la concomitanza di Sids in due bambini di una stessa madre era percepita come “troppo improbabile per essere fortuita”, ma non lo era affatto: non avrebbe dovuto creare nessuna ipotesi di non-indipendenza» (P. Cherubini, Fallacie nel ragionamento probatorio, cit., p. 278) dando luogo alla cd. proescutor’s fallancy, con la maldestra trasposizione della probabilità condizionata sul terreno dell’ipotesi accusatoria. Generata l’ipotesi di associazione, a catena conseguirono gli errori di valutazione, costantemente rinvigoriti dal ruolo probatorio quasi esclusivo attribuito al dato statistico e da una certa “tendenza alla conferma” dell’ipotesi accusatoria vista la netta preponderanza probabilistica. Ciò che si verifica è, invero, una tautologia probatoria, perché, in assenza di altre prove, il giudizio di condanna appare sfornito di quelle prove individualizzate legate al caso di specie, relative, per esempio, all’eventuale origine congenita delle Sids nei soggetti coinvolti. Utilizzare le stesse evidenze per generare un’ipotesi e, successivamente, per confermarla è chiaramente un’abduzione tautologica (sul punto, ibidem, p. 279, nota 29), priva cioè delle conferme deduttive e induttive tipiche del metodo pierciano. L’imputata era stata condannata sulla base di una evidenza che John Klotter chiama “circostanziale”, ovverosia una prova «from which a fact is reasonably inferred but not directly proven» (J.C. Klotter, Criminal Evidence, Anderson Publishing, Cincinatti, 1992, p. 68), la quale espone a un elevatissimo rischio di errore e si traduce in una logica di scommessa in cui il rischio di errore è di 1/73.000.000. Ciò che più stupisce è che non si sia tentato minimamente di arginare questo rischio, ricercando «almeno un indizio supplementare e indipendente per l’ipotesi dell’infanticidio» (C. Pizzi, Diritto, abduzione e prova, cit., p. 148). Solo in un secondo momento, attraverso l’esecuzione di tests microbiologici (con funzione di controprova) che confermarono la pur improbabile tesi della morte naturale, emerse l’inadeguatezza di un’inferenza meramente statistica e non “individualizzata” a superare la soglia del ragionevole dubbio. Riemergono, a questo punto, le obiezioni al bayesianesimo già esposte supra circa il rischio di indifferenza alla completezza probatoria e, soprattutto, la quantificazione del ragionevole dubbio, posto che, qualsiasi valore numerico si possa individuare, una probabilità di non colpevolezza pari a 1 su 73.000.000 verrebbe quasi sicuramente ritenuta idonea a suffragare una condanna oltre ogni ragionevole dubbio. Per una ricostruzione completa del caso, anche dal punto di vista degli errori di associazione di eventi non indipendenti come la morte per sindrome congenita, si v. almeno L. Schneps - C. Colmez, Math error number 1: multiplying non-independant probabilities. The Case of Sally Clark, in Id, Math on trial. How Numbers get Used and Abused in the Courtroom, Basic Book, New York, 2013, pp. 3 ss.

[83] Tribe confida di non sentirsi «ancora pronto a dire che i costi legati alla precisione matematica […] siamo così ingenti da superare qualsiasi profitto che possa derivare da un uso attentamente limitato della prova probabilistica in circostanze speciali; tuttavia credo proprio che quelle circostanze debbano essere straordinarie davvero perché chi propone come prova i metodi matematici riesca perlomeno a imbastire un caso plausibile» (L.H. Tribe, Processo e matematica: precisione e rituale nel procedimento giudiziario, cit., pp. 237 ss.). Assai più tranchant Michele Taruffo, che chiosa sostenendo l’“antieconomicità” del bayesianesimo (M. Taruffo, La prova dei fatti giuridici, cit., pp. 180 ss.).

[84] Così P. Garbolino, Introduzione, cit., IX.

[85] Sul punto, la letteratura svedese è vasta. Tra i pochi testi tradotti in lingua italiana si segnala P. Gärdenfors - B. Hansson - N.E. Sahlin (a cura di), La teoria del valore probatorio. Aspetti filosofici, giuridici e psicologici, cit., che raccoglie una serie di saggi particolarmente significativi anche perché non perfettamente unanimi tra loro. Essa risale comunque a una serie di contributi di Ekelöf ed Edman, in parte presenti nel testo di cui sopra, oltre ai quali segnala, in lingua inglese, M. Edman, Adding independnet pieces of evidence , in S. Hallén, Modality, Morality and Other Problems of Sense and Nonsense, Gleerup, Lund, 1973 e P. O. Ekelöf, Free evaluation of Evidence, in Scandinavian Studies in Law, 1964, pp. 5 ss., tradotto in italiano in Id, La libera valutazione delle prove, in Studi in onore di A. Segni, Giuffrè, Milano, 1973, pp. 93 ss.

[86] Sul punto, si v. P.O. Ekelöf, Le mie riflessioni sul valore probatorio, in P. Gärdenfors - B. Hansson - N.E. Sahlin (a cura di), La teoria del valore probatorio. Aspetti filosofici, giuridici e psicologici, cit., pp. 1 ss.

[87] P. Garbolino, Introduzione, cit., X.

[88] R.W. Goldsmith, La valutazione della prova nel giudizio penale, in P. Gärdenfors - B. Hansson - N.E. Sahlin (a cura di), La teoria del valore probatorio. Aspetti filosofici, giuridici e psicologici, cit., p. 118. Alla luce di questa constatazione, si può constatare che, a differenza dell’Evm, il modello bayesiano «prende in considerazione prove ed altri tipi di informazione semplicemente in quanto influenzino la probabilità del tema, e non in quanto abbiano una relazione probatoria con il tema» (ibidem, p. 120).

[89] A.N.S. Freeling - N.E. Sahlin, La combinazione delle prove, in ibidem, pp. 60 ss. su cui torna, nello stesso volume, M. Edman, La combinazione di prove indipendenti, cit., pp. 141 ss.

[90] È il dato, ineliminabile, del cd. “margine di errore”, che viene preso in considerazione in tutte le misurazioni empiriche o numeriche attraverso il simbolo ‘±’ raffigurante il range numerico di sensibilità dell’apparecchio di misurazione sull’esito. Tanto maggiore è il grado di precisione richiesto (si pensi alle misurazioni dell’infinitamente piccolo), tanto maggiore è l’incisività di questo margine. In una realtà come quella processuale, specie in un approccio quantitativo in cui il ragionevole dubbio è fissato in un valore numerico, non tenere in considerazione il margine di errore (che può far apparire leggermente più alto o leggermente più basso il dato misurato) può avere conseguenze devastanti.

[91] A.N.S. Freeling - N.E. Sahlin, La combinazione delle prove, cit., p. 60.

[92] Ibidem, p. 121. Per altro, ed è un dato che Goldman saluta con estremo favore nel raffronto con il modello bayesiano, il più recente modello del valore probatorio esige solamente che almeno una delle prove abbia un valore in grado di sostenere il tema oltre la soglia del ragionevole dubbio, a nulla valendo nel calcolo del peso le prior probabilities P(H) che consentono al giudice di operare la valutazione di fatto computando un pregiudizio, ammesso che sia determinabile. Invero, appare ancora frequente in talune formulazioni dell’Evm, come quella offerta in A.N.S. Freeling - N. E. Sahlin, La combinazione delle prove, in P. Gärdenfors - B. Hansson - N.E. Sahlin (a cura di), La teoria del valore probatorio. Aspetti filosofici, giuridici e psicologici, cit., 59 ss., ritrovare il ricorso alle prior probabilities, esponendo così anche l’Evm alle medesime critiche del bayesianesimo cui si è fatto cenno, anche sotto questo profilo, nel paragrafo precedente. È chiaro che non è sufficiente ipotizzare che i dati probabilistici iniziali siano il frutto di una comune esperienza, come sostiene Ekelöf (P.O. Ekelöf, Le mie riflessioni sul valore probatorio, pp. 17 ss.), per arginare il rischio che essi risultino assai di rado nella disponibilità del giudicante. L’unico elemento che consente di utilizzare queste probabilities è la loro determinatezza secondo leggi statistiche; volgerle in termini sommari cioè «frequenze statistiche fittizie» che si presentano piuttosto come «rozze generalizzazioni», sicché, senza la precisa determinazione quantitativa, «nessun calcolo può funzionare producendo risultati numerici» (così si esprime, criticamente, M. Taruffo, La prova dei fatti giuridici, cit., p. 184).

[93] M. Taruffo, La prova dei fatti giuridici, cit., p. 184.

[94] Per un’accesa critica, si. v. M. Huber, Das Beweismass und Zivilprozess, Carl Heymanns, Köln, 1983, p. 114.

[95] Cfr. P.O.Ekelöf, Le mie riflessioni sul valore probatorio, cit., p. 8). Ibidem, p. 5, nota 9 l’autore propone un raffronto dei tre gradi di conferma intermedi (“plausibile”, “probabile” e “confermato”) con i tre gradi di prova presenti nell’ordinamento processuale americano (e non solo) della “netta preponderanza delle prove”, tipica del processo civile, della “prova chiara e convincente” e della prova “oltre ogni ragionevole dubbio”, con i quali vi sarebbe molto in comune. Il raffronto emerge ancora più efficace se si riprende un’interessante proposta di McBain di sostituire queste ultime espressioni con formule più intuitive, come “probabile”, “altamente probabile” e “quasi certo”, (J.P. Mcbain, Burden of Proof: Degrees of Belief, in California Law Review, 1944, pp. 243 ss.), sicuramente adatti anche a questa proposta classificatoria di Ekelöf.

[96] A onor del vero, la Suprema Corte di Cassazione ha talvolta dimostrato di cogliere e accettare il rischio di errore sotteso al test del Dna perché trascurabile. Da ultimo, in Cass. pen., sez. V, sentenza n. 36090/2015 si legge che «la valenza processuale dell’indagine genetica condotta sul Dna, atteso l’elevatissimo numero di ricorrenze statistiche confermative, [è] tale da rendere infinitesimale la possibilità di un errore» (pp. 35 ss.).

[97] M. Taruffo, La prova dei fatti giuridici, cit., p. 190.

[98] G. Shafer, A Mathematical Theory of Evidence, cit., passim. Per una rassegna critica si v. I. Levi, Consonanze, dissonanze e meccanismi probatori, in P. Gärdenfors - B. Hansson - N.E. Sahlin (a cura di), La teoria del valore probatorio. Aspetti filosofici, giuridici e psicologici, cit., pp. 24 ss.

[99] Solo per un esempio, si v. R. Bender, Das Beweismass, in AA.VV., Festschr. für F. Baur, Mohr Siebeck, Tübingen, 1981, pp. 247 ss.; R. Bender - S. Röder - A. Nack, Tatsafeststellung vor Gericht, I, Gläubwürdigkeits und Beweislast, Vernehmungslehre, München 1983, pp. 190 ss.

[100] Specialmente R. Bender - S. Röder - A. Nack, Tatsafeststellung vor Gericht, cit., pp. 191 ss.

[101] È di tale avviso R. Schreiber, Theorie des Beweiswertes für  Beweismittel im Zivilprozess, Springer, Berlin, 1968, criticato con argomenti  simili a quelli proposti contro la naked statistic evdence, in M. Huber, Das Beweismass und Zivilprozess, cit., pp. 67 ss. e pp. 89 ss. Risulta però difficilmente negabile che, nella libera valutazione della prova, un simile dato non può che avere un’influenza piuttosto significativa, se non decisiva. E non dovrebbe sembrare mal motivata la sentenza che giustifichi il giudizio di inattendibilità della testimonianza sulla base di un dato di pregressa tendenza a mentire in ambiti giudiziari. Ma è chiaro che non potrà risultare l’unico elemento, perché se è vero che si tratta di tendenza è anche vero esiste un’ipotesi non necessariamente irragionevole che ciò non accada nel caso di specie e che impone al giudice una completa giustificazione (ancorché sommariamente esposta).

[102] Sul punto v. anche M. Taruffo, Senso comune, esperienza e scienza nel ragionamento del giudice, in Id, Sui Confini. Scritti sulla giustizia civile, cit., pp. 140 ss. e G. Tuzet, Filosofia della prova giuridica, Giappichelli, Torino, 2013, p. 188.

[103] R. Eggleston, Prova, conclusione probatoria e probabilità, cit., p. 45.

[104] Il riferimento è a F. Schauer, Profiles, Probabilities and Stereotypes, cit., pp. 79 ss. Una posizione simile è anche quella espressa in D. Shaviro, Statistical Probability Evidence and the Appereance of Justice, cit.,pp.  530 ss., ripresa J. J. Koehler - D. Shaviro, Verdical Verdicts: Increasing Verdict Accuracy Through the Use of Overtly Probabilistic Evidence and Methods, cit., pp. 247 ss. e aspramente criticata da Callen in C.R. Callen, Adjudication and the Appearance of Statistical Evidence, cit., pp. 459 ss.

[105] B.V. Frosini, Le prove statistiche nel processo civile e penale, cit., p. 65.

[106] Forse il caso più significativo, e interessante banco di prova per le concezioni quantitative, è quello relativo alla prova della discriminazione sul posto di lavoro, che l’articolo 4 comma 6 della legge 10 aprile 1991, n. 125 consente di esprimere anche in forma statistica (il lavoratore può fornire elementi «anche fondati su dati statistici»), al fine di ottenere l’inversione dell’onere probatorio sulla base di una semplice prevalenza statistica che faccia pensare alla discriminazione.

[107] Così, nella dottrina italiana, ex multis,M. Taruffo, La prova del nesso causale, cit., p. 108; F. Stella, Giustizia e modernità, cit., pp. 296 ss.; B.V. Frosini, Le prove statistiche nel processo civile e penale, cit., p. 39. Anche la dottrina inglese giunge a una simile conclusione; si v. in particolare D. H. Kaye - D.A. Freedman, Reference Guide on Statistics, in AA.VV., Reference Manual on Scientific Evidence, National Academy of Science, Washington, 2011, pp. 94 ss.

[108] G. Licci, Figure del diritto penale: Il sistema italiano, Giappichelli, Torino, 2013, p. 311. Non mancano, tuttavia, pronunce di segno contrario. In tema di accertamento dell’età anagrafica del sedicente minore privo di documenti di riconoscimento, per esempio, la Cassazione continua a ritenere sufficiente esami antropometrici (es. esame auxologico) in grado di offrire, su base statistica, un quoziente di verosimiglianza a sostegno della tesi della maggiore età o della minore età sulla base di precedenti osservazioni in soggetti diversi. Il costo di una simile approssimazione è dato da un margine di errore troppo ampio per giustificare una statuizione non fondata su altri riscontri “individualizzati”. Invero, la Cassazione è tranchant e ancora di recente ha confermato che «costituisce strumento idoneo di accertamento dell'età dell'imputato l'esame radiografico del polso o delle ossa carpali del ragazzo in quanto consente di valutare il processo di accrescimento dell'organismo nell'età evolutiva» (Cass., Sez. IV, sent. n. 16946/2015, Rv. 263448). Tra le rare pronunce di merito di segno contrario, ove ci si limita a fare un uso corretto delle prove statistiche senza sacrificare le peculiarità del caso concreto, si v. Trib. Torino, sent. 27 gennaio 2015, accessibile al link www.questionegiustizia.it/doc/Tribunale_Torino_sentenza_27_gennaio_2014.pdf.

[109] Sul punto cfr. F.C. Benenson, Probability, Obiectivity and Evidence, Routledge, London, 1984; D. Kaye, Naked Statistical Evidence, in Yale Law Journal, 1980, p. 603; C.R. Callen, Notes on A Grand Illusion: Some Limits on the Use of Bayesian Theory in Evidence Law, cit., p. 38 e L. Masera, La malattia professionale e il diritto penale, cit., spec. pp. 14 ss.

[110] F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, cit., p. 74. Sembra opportuno riprendere il celebre esempio del “lancio del sasso” usato in R. Carnap, An introduction to the philosophy of science (1974), a cura di M. Gardner, Dover Publications, New York, 1995, pp. 187 ss. per descrivere il ruolo della statistica nell’accertamento causale: «A stone shatters a window. Did the stone intend to do this? Of course not, the scientist will say. A stone is a stone. It posseses no soul capable of intention. On the other hand, most people, even the scientist himself, will not hesitate to say that event b, the breaking of the window, was caused by event a, the collision of the stone with the glass», e questo perché la statistica può segnalare che nella maggior parte dei casi in cui una pietra di determinate dimensioni colpisce un vetro con una certa velocità, questa ne causa la rottura. Sarebbe ragionevole pensare “senza esitazione” che la pietra scagliata verso la finestra abbia effettivamente infranto il vetro, ma non è escluso che un altro idoneo fattore causale sia intervenuto in concomitanza o in precedenza rispetto al lancio del sasso (ad esempio, un’altra pietra scagliata da un diverso soggetto dall’interno dell’abitazione). Il compito della ricerca scientifica e giudiziale non è limitato alla raccolta delle testimonianze dei soggetti che hanno visto, per esempio, un bambino lanciare pietre verso la casa. Il ragionevole dubbio va superato con le logiche dell’“altrimenti”, cioè con quell’atteggiamento, quasi spirituale, di ricerca di spiegazioni possibili (purché ragionevoli) ogni qual volta la certezza raggiunta sia solo “pratica”, cioè fondata su una base statistica, vagamente trasfusa in massime di esperienza, di per sé incompatibile con la prudenza epistemica e lo stesso articolo 533 comma 1 cpp.

[111] Si pensi ai casi in cui sia necessario stabilire quale sia l’effetto dannoso dell’assunzione di un medicinale, conoscendo l’incidenza statistica dell’effetto dannoso entro una classe di popolazione. Nel caso di percentuali significative di osservazione, come per esempio la soglia del 95% indicata da Walzer e Monahan come certezza pratica (L. Walker - J. Monahan, Sampling Evidence at the Crossroad, in S. Cal. Law Review, 2007, pp. 1 ss., accessibile anche su http://ssrn.com/abstract=963204) non sono mancate sentenze che hanno attinto ampiamente al dato statistico, una volta mostrata la sua adeguatezza a dar conto di un certo fenomeno. È quanto accaduto nel c.d. caso McLaughlin vs. Phillip Morris, nel quale il giudice di prime cure ha pronunciato sentenza ricorrendo a una prova per campione di incidenza dei danni verso soggetti fumatori di sigarette light appartenenti alla classe di riferimento (stimati in circa cinquanta milioni), al fine di vagliare la pretesa soggettiva degli appartenenti alla class, alla luce del danno altamente frequente osservato. È chiaro che si tratta pur sempre di una prova statistica per campione, pertanto non sono infondati i dubbi circa la correttezza (rectius, giustificazione) dell’inferenza che ha portato a ritenere provato il nesso causale di un evento pregiudizievole a partire dall’incidenza della causa nei casi simili. Si deve pensare che la prova sia stata suffragata da ulteriori evidenze, anche perché, altrimenti, il ragionevole dubbio che un danno alla salute abbia avuto altre cause (o concause) pare difficilmente superato se si considera ciascun caso concreto. Di diverso avviso sarebbe chi, come Luca Masera, propone di attribuire rilievo pienamente probatorio agli studi epidemiologici, nonostante da essi si possa trarre la ragionevole certezza che una condotta abbia determinato l’insorgenza di una patologia non monocausale, ma non anche la prova “eziologica individualizzante” che la singola patologia di un determinato soggetto sia causalmente riconducibile (come causa o concausa) a quella determinata condotta. Per scongiurare il rischio di un’abdicazione della repressione penale in tema di malattie professionali, a cui tipicamente si riferiscono le prove epidemiologiche, Masera non esclude il ricorso alle approssimazioni statistiche per giustificare una condanna, laddove esse consentano di raggiungere la prova «oltre ogni ragionevole dubbio circa la colpevolezza dell’imputato [nonostante permanga] un dubbio sulla ricostruzione del fatto oggetto di accertamento». In altri termini, «il dubbio sulla condotta costitutiva del reato è compatibile con la condanna, se risulta comunque certo che l’imputato ha commesso il reato contestatogli» (L. Masera, La malattia professionale e il diritto penale, cit., 16, ma si veda anche Id, Accertamento alternativo ed evidenza epidemiologica nel diritto penale. Gestione del dubbio e profili causali, Giuffrè, Milano, 2007 e ID, Epidemiologia e nesso di causalità, in Cass. pen., 2008, p. 445). Invero, tale orientamento, per quanto utilissimo suffragio agli algoritmi decisori fondati su prior probabilities, sconta gli stessi limiti in termini di mancanza di prova individualizzata.

[112] M. Taruffo, La prova dei fatti giuridici, cit., p. 199, nota 196.

[113] Così Cass., Sez. un., 10 luglio 2002, Franzese, cit., pp. 3650 ss.

[114] Sul punto si v. D. Bruni, Love letters. La dimensione soggettiva del senso e la sua omologazione espressiva, in F. Bianchini (a cura di), Imitare la mente. Un dibattito interno alle scienze cognitive, in Disc. Fil., XXI, n. 1, 2011, p. 182, nota 1) in cui si evidenzia la necessità disporre di linguaggi e dati formalizzati, al fine di consentire non solo il calcolo, ma la gestione algoritmica dei calcoli. Se sul piano del formante legislativo, l’introduzione dei codici risponde in parte a queste esigenze di certezza (cfr., su tutti, G. Tarello, Storia della cultura giuridica moderna. Assolutismo e codificazione nel diritto, Il Mulino, Bologna, 1976), sul piano dell’oggetto del giudizio tutti gli sforzi si sono mostrati, finora, sostanzialmente vani. Per una visione marcatamente ottimistica circa l’utilità del calcolatore nell’ambito del giudizio si v., su tutti, il recente C. Bona, Macchine al posto dei giudici, in L. De Cataldo Neuburger, “L’operazione decisoria” da emanazione divina alla prova scientifica. Passando per Rabelais, Cedam, Padova, 2014, pp. 283 ss., spec. p. 286.

[115] F. Carnelutti, Accertamento del reato e favor rei, in Riv. dir. proc., 1961, pp. 337 ss.

[116] A questa impostazione sembra per altro rifarsi lo stesso articolo 533, comma 1 cpp, nella misura in cui si richiede, ai fini della condanna, una netta preponderanza della probabilità di colpevolezza rispetto a quella di non colpevolezza (chiaramente, a patto che non vi siano dubbi ragionevoli circa spiegazioni alternative). E forse questo intendeva dire anche Cordero, cedendo terreno alla concezione quantitativa, quando scriveva che, «se nessun giudizio storico è tale che sia assolutamente impossibile predicare il contrario, il concetto di verità processuale si può ottenere soltanto a prezzo di una determinazione quantitativa sulle probabilità contrarie» (F. Cordero, Note sul procedimento probatorio, in Jus, 1963, p. 45, corsivo aggiunto).

[117] Forse è proprio sulla base di questo obiettivo conclamato che la delusione cresce nel constatare che l’immissione di un qualunque elemento empirico (come una prova testimoniale o documentale) espone ad elevati indici di insuccesso pratico. Proponendosi l’approccio bayesiano come generale modello di funzionamento di un processo decisorio-inferenziale, quindi anche giudiziario, basato su prove di qualsiasi tipo (cfr. M. Taruffo, voce “Prova scientifica” (dir. proc. civ.), in Enc. Dir., Annali, vol. II, t. I, Giuffrè, Milano, 2008, p. 971), ci si aspetterebbe una capacità straordinaria di processare un insieme comprensivo, se non di ogni prova atipica, almeno di quelle tipizzate e maggiormente utilizzate.

[118] È questa anche l’opinione di Grimaldi, che in M. Grimaldi, Al di là di ogni ragionevole dubbio: voce, scienza e legge nella fonetica forense, in www.questionegiustizia.it/articolo/al-di-la-di-ogni-ragionevole-dubbio_voce_scienza-e-legge-nella-fonetica-forense_10-02-2015.php, 10 febbraio 2015, suggerisce il ricorso al teorema di Bayes per la verifica della verosimiglianza dell’appartenenza ad un determinato soggetto di una voce registrata. Ciò che si propone è fornire attraverso uno strumento statistico di raffronto tra diverse probabilità di tipo bayesiano «un ulteriore indizio a favore o sfavore di una certa ipotesi che, come tale, sarà il Giudice, tramite gli atti a sua disposizione il dibattimento, a inquadrare nell’ambito più complesso dell’intero processo».

[119] Si tratta di informazioni fornite dalla stessa società Northpointe Inc. sul proprio sito per presentare il proprio algoritmo (www.northpointeinc.com/files/downloads/FAQ_Document.pdf). Così coniugati dati oggettivi relativi alla storia criminale dell’imputato e risposte fornite dallo stesso imputato, Compas processa tutte le informazioni raccolte suddividendole in 12 sezioni: “Current Charges”, “Criminal History”, “Non-Compliance”, “Family Criminality”, “Peers”, “Substance Abuse”, “Residence/Stability”, “Social Environment”, “Education”, “Vocation”, “Leisure/Recreation”, “Social Isolation”, “Criminal Personality”, “Anger” e “Criminal Attitudes.”

[120] Loomis, 881 N. W. 2d 749 ss. (Wis. 2016), accessibile al link www.wicourts.gov/sc/opinion/DisplayDocument.pdf?content=pdf&seqNo=171690.

[121] State v. Loomis.Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing, in Recent cases, Harv. L. Rev., 130, 2017, 1530 (traduzione dell’autore).

[122] Loomis, 881 N. W. 2d, cit., § 15 (traduzione dell’autore).

[123] Ibidem, § 99 (traduzione dell’autore).

[124] State v. Loomis.Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing, cit., 1532 (traduzione dell’autore).

[125] J.M. Yatt - S. L. Chanenson - M. H. Bergstrom, Reform in Motion: The Promise and Perils of Incorporating Risk Assessments and Cost-Benefit Analysis into Pennsylvania Sentencing, in Duq. U. Law Rev., 2011, p. 707.

[126] State v. Loomis.Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing, cit., 1535 (traduzione dell’autore).

[127] È proprio sotto quest’ultimo aspetto che viene mossa una delle più dure critiche al COMPAS e alla sentenza della Corte Suprema del Wisconis, la quale ha escluso la contrazione dei diritti di difesa ridimensionando il ruolo effettivamente svolto dagli algoritmi nel processo. Contro tale conclusione si scaglia, tra gli altri, K. Freeman, Algorithmic injustice: how the Wisconsin Supreme Court Failed to protect due process rights in State v. Loomis, in North Carolina Journal of Law & Technology, XVIII, 2016, pp. 75 ss., ove si propone «di trasformare Compas da property algorithm a open-source algorithm che i difensori possano analizzare e utilizzare autonomamente» e di introdurre «un processo di verifica in cui un supervisore esterno alla società effettui costanti controlli sul sistema per garantirne precisione e funzionamento appropriato» (ibidem, 101, traduzione dell’autore).

[128] Tra le più eloquenti è la decisione della Corte Suprema dell’Indiana Malenchik v. State, 928 N.E.2d 564, 574 (Ind.2010) ove si legge che tali algoritmi «enable a sentencing judge to more effectively evaluate and weigh several express statutory sentencing considerations such as criminal history, the likelihood of affirmative response to probation or short term imprisonment, and the character and attitudes indicating that a defendant is unlikely to commit another crime».

[129] Oltre a Compas, si ricordi ancora almeno l’algoritmo HCR-20V3 (Historical Clinical Risk Managment), giunto alla terza versione e adottato, in fase per lo più sperimentale, in oltre trenta paesi. Si v. J. L. Ireland - A. Carol - P. Brich, Violent and sexual offenders, Rutledge, New York, 2018, nonché AA.VV., The HCR-20V3 in Germany, in International Journal of forensic mental health, 2014, pp. 122 ss. e AA.VV., The utility of HCR-20V3 and PCL:SV in the prediction of diversion non compliance and reincarceration in diversion programs, in Criminal Justice and Behaviour, 2012, pp. 475 ss.

[130] Il progetto è accessibile al link www.ucl.ac.uk/news/news-articles/1016/241016-AI-predicts-outcomes-human-rights-trials. Per la presentazione della ricerca da parte degli autori si v. N. Aletras - D. Tsarapatsanis - D. Preoţiuc-Pietro - V. Lampos, Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective, in PeerJ Computer Science, 2016, p. 2; e p. 93, accessibile su https://doi.org/10.7717/peerj-cs.93.

[131] https://predictice.com/.

[132] Tra le rarissime pronunce si v. Trib. Torino, 23 dicembre 1991, Leonardis, in Cass. pen., 1992, 2212 ss.; Trib. Min. Venezia, 27 novembre 1986, Pasqual c. Doro, in Giur. mer., 1989, 639 (sulla quale si segnala anche la nota di G. Manera, Dichiarazione giudiziale di paternità e decorrenza dell’obbligo di mantenimento. Nuova metodologica per l’accertamento della paternità, in ibidem). Per un esame più approfondito delle sparute pronunce di tribunali italiani in cui ricorre il teorema di Bayes si rinvia a E. M. Catalano, Prova indiziaria, probablistic evidence e modelli matematici di valutazione, cit., pp. 530 ss.

[133] Trib. Milano, sez. gip., sent. 18 giugno 2015, giud. Gennari, accessibile al link www.penalecontemporaneo.it/upload/1445325933Trib_MI_Gennari.pdf.

[134] Cfr. P. Garbolino, Il teorema di Bayes applicato alla prova dattiloscopica trova cittadinanza nel Tribunale di Milano, in Cass. Pen., 2016, pp. 3463 ss. e J. Della Torre, Il “teorema di Bayes” fa capolino al tribunale di Milano, in Diritto Penale Contemporaneo online, p. 2015, www.penalecontemporaneo.it/d/4213-il-teorema-di-bayes-fa-capolino-al-tribunale-di-milano.

[135] www.poliziadistato.it/statics/16/la-chiave-del-crimine.pdf. Tra i pochissimi studi della dottrina, si segnala, ancorché con un approccio economicista, il pregevole G. Mastrobuoni, Crime is terribly revealing: an evaluation predictive policing, University of Essex - Collegio Carlo Alberto, 2017,  https://dx.doi.org/10.2139/ssrn.2989914.

[136] Tra cui, si segnala, l’estrazione sociale, con determinate modalità esecutive della condotta

[137] Sono meritori di nota anche il software G.I.A.N.O.S., sviluppato nel 1993 dall’Associazione bancaria italiana (Abi) per consentire agli istituti bancari l’adempimento dei doveri imposti dalla normativa antiriciclaggio e il software S.O.Cr.A.TE.s., promosso dal Governo italiano per «fornire uno strumento di supporto alle indagini delle forze di polizia e alle decisioni dell’autorità giudiziaria riguardo alle misure cautelari e ai benefici penitenziari» (v. il cursorio comunicato stampa www.giustizia.it/giustizia/it/mg_1_12_1.page?contentId=SPS1195236&previsiousPage=mg_2_3_4_7). Si tratta, anche in questo caso, di un modello di offender e crime profiling,attualmente solo sperimentale e circoscritto agli autori di reati efferati a sfondo sessuale, basato su dati personali, comportamentali, patologici e descrittivi delle modalità esecutive del reato.

[138] J. Frank, Courts on Trial, Princeton University Press, New York, 1949.

[139] Su cui si rinvia a L. Floridi, La quarta rivoluzione. Come l'infosfera sta trasformando il mondo, Cortina Editore, Milano, 2017.

[140] L. Ferrajoli, Cos’è il garantismo, in Criminalia, 2014, p. 130.

[141] Sono ancora perfettamente applicabili anche al profiling e alle nuove tecniche di indagine basate sulla algoritmizzazione del processo le considerazioni di F. Caprioli, La scienza “cattiva maestra”: le insidie della prova scientifica nel processo penale, in Cassazione Penale, 2009, pp. 3520 ss.

[142] Si rinvia a S. Achter - B. Millelstadt - L. Floridi, Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation, in International Data Privacy Law, 2017. 

[143] Sul punto, magistrale è il contributo di S. B. Starr, Evidence-Based Sentencing and the scientific rationalization of discrimination, in Standford Law Review, 2014, pp. 803 ss.

[144] Articolo 11 della Direttiva Ue 680/2016 (corsivo aggiunto), che ripropone il contenuto dell’articolo 22 del Regolamento Ue 679/2016, di analogo tenore. Tale formulazione richiama il ben più risalente articolo 15 della Direttiva Ce 46/1995.