home search menu
IoT e intelligenza artificiale: le nuove frontiere della responsabilità civile (e del risarcimento)<a title="" href="#_notatitolo1" id="_notatitoloref1">*</a>
Prassi e orientamenti
IoT e intelligenza artificiale: le nuove frontiere della responsabilità civile (e del risarcimento)*
di Silvia Toffoletto
avvocato in Milano
Componente VII commissione Diritto dell’Unione europea – Ordine avvocati di Milano
Coordinatrice Gruppo Europa dell’Osservatorio sulla giustizia civile del Tribunale di Milano
Le applicazioni dell’intelligenza artificiale sono ormai “dentro” il nostro quotidiano, rendendo necessaria una regolamentazione del settore ormai improcrastinabile. Il dibattito si è aperto in sede europea, a livello dottrinale e legislativo, senza dimenticare il ruolo centrale che potranno assumere le Corti, grazie ad una giurisprudenza condivisa (Courts facing Courts), che miri ad una disciplina quanto più possibile uniforme anche dal punto di vista sostanziale in ambito europeo

1. Lo sviluppo tecnologico: auto driverless e gambe bioniche, passando per lo scandalo Cambridge Analytica

L’intelligenza artificiale sembrerebbe appartenere ad un futuro dai contorni ancora incerti, ma, al contrario, non è poi così distante da noi, anzi, è già “dentro” il nostro quotidiano e ci sta lentamente avvolgendo sempre più, come la rete di una ragnatela virtuale.

Tre esempi emblematici, appena registrati nelle cronache recenti.

Marzo 2018, Arizona (Stati Uniti d’America). Auto Uber senza conducente investe pedone di 49 anni che muore

A bordo c’era l’operatore, ma pare fosse distratto. Sono in corso le indagini della polizia. Proprio qualche settimana fa, il governatore dell’Arizona aveva dato il via libera alla circolazione sulle strade pubbliche delle auto condotte con l’intelligenza artificiale; in California, Nevada e Florida da tempo era stata concessa la ricerca sulla guida autonoma sul suolo pubblico.

Uber si è dichiarata pronta a collaborare nelle indagini ed ha interrotto tutti i test a guida autonoma nelle altre città, ma, si nota, allo stato, manca una normativa specifica; di certo i test riprenderanno, considerato che il mercato delle auto driverless, da stime recenti, ha un potenziale di espansione del valore di quasi 42 miliardi di dollari entro il 2025.

8-18 marzo 2018, Salone dell’auto di Ginevra

Si sente molto parlare di auto driverless, ma talvolta con una certa confusione; per fare chiarezza occorre ricordare che la Tabella SAE, realizzata dalla Society of Automotive Engineers, (associazione composta da oltre 100.000 ingegneri) divide in cinque livelli di automazione i sistemi presenti su una vettura in base a chi controlla l’ambiente di guida (il guidatore controlla l’ambiente di guida: livello 0 nessuna automazione; livello 1 assistenza al guidatore; livello 2 parziale automazione; il Sistema automatico controlla l’ambiente di guida: livello 3 automazione condizionata; livello 4 alta automazione; livello 5 completa automazione); ad oggi, in Italia, modelli come Mercedes-Benz Classe E e Bmw Serie 5 si avvicinano al grado 3.

Per il 2025 il Gruppo Volkswagen sta preparando mezzi conformi al livello 5 come il prototipo Cedric (Self driving car), che è un minivan elettrico a guida completamente autonoma dotato di telecamere e sensori laser di tipo Lidar, dove al suo interno non è prevista nessuna plancia di comando.

Intelligenza artificiale e protesi sanitarie (mano e gamba bioniche)

Già nel marzo 2015, grazie ai finanziamenti del Programma Horizon 2020 e agli studi italiani che vedono capofila l’Università Sant’Anna di Pisa, sono state create per l’utilizzo da parte degli utenti finali, protesi che rispondono ai comandi cerebrali, trasformando gli input in movimenti, protesi che, diversamente dal passato, possono essere utilizzate/trasportate dal paziente fuori dai laboratori, perché diventano trasportabili con uno zainetto e alimentate da una batteria con alcune ore di autonomia.

Scandalo Cambridge Analytica

Ultimo, ma non ultimo, è del marzo 2018 la notizia dello scandalo Facebook-Cambridge Analytica, che ha visto “profilare” 87 milioni di persone.

2. La risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica

Il 16 febbraio 2017, il Parlamento europeo ha adottato una risoluzione «recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica».

Il Parlamento, dopo aver osservato che «robot, bot, androidi e altre manifestazioni dell’intelligenza artificiale sembrano sul punto di avviare» una nuova rivoluzione industriale e considerato che la crescita media delle vendite di robot nel 2014 è aumentata del 29%, il più considerevole aumento annuo mai registrato, e che le richieste di brevetto per le tecnologie robotiche sono triplicate nel corso dell’ultimo decennio, passa ad analizzare le conseguenze sociologiche delle applicazioni dell’intelligenza artificiale.

Gli impatti e le conseguenze possono così riassumersi: trasformazione del mercato del lavoro e quindi necessità di una riflessione sul futuro dell’istruzione, dell’occupazione e delle politiche sociali; ridistribuzione delle tipologie di competenze di cui avranno bisogno i lavoratori di domani; i bisogni cui far fronte rispetto ad una popolazione che invecchia, considerato che entro il 2025 oltre il 20% dei cittadini europei avrà 65 anni o più, e si assisterà a un aumento particolarmente rapido di chi ne avrà più di 80; inoltre, il maggiore ricorso a processi decisionali automatizzati e algoritmici, avranno senza dubbio un impatto sulle scelte compiute sia da un privato (ad esempio un’impresa o un internauta), che da un’autorità amministrativa, ma anche da un’autorità giudiziaria o da un qualsiasi altro ente pubblico, al fine di rappresentare la decisione finale di un consumatore, di un’impresa o di un’autorità.

In questo scenario, osserva il Parlamento, lo sviluppo della tecnologia robotica dovrebbe mirare a integrare le capacità umane, e non a sostituirle, ritenendo fondamentale, nello sviluppo della robotica e dell’intelligenza artificiale, garantire che gli uomini mantengano in qualsiasi momento il controllo sulle macchine intelligenti e sottolineando altresì il pericolo che nasca un attaccamento emotivo tra gli uomini e i robot, in particolare per i gruppi vulnerabili (bambini, anziani e disabili), con il conseguente grave impatto emotivo e fisico che un tale attaccamento potrebbe avere sugli uomini.

Dopo l’analisi, il Parlamento invita la Commissione ad intraprendere alcune azioni quali:

1) elaborare delle definizioni comuni (di sistemi cyberfisici, sistemi autonomi, robot autonomi intelligenti, etc.);

2) introdurre un sistema globale dell’Unione per la registrazione dei robot avanzati nel mercato interno dell’Unione per categorie specifiche di robot;

3) stabilire criteri per la classificazione dei robot da registrare;

4) valutare se sia opportuno affidare la gestione del sistema di registrazione e del registro a un’agenzia designata dell’Ue per la robotica e l’intelligenza artificiale.

Sul piano del diritto, il Parlamento rileva molti problemi aperti, in quanto occorre chiarire in primo luogo, la responsabilità giuridica per quanto concerne sia il modello di impresa, sia le caratteristiche dei lavoratori, ed osserva inoltre, che i soggetti coinvolti nello sviluppo e nella commercializzazione di applicazioni dell’intelligenza artificiale dovrebbero essere preparati ad accettare di essere legalmente responsabili della qualità della tecnologia prodotta.

Potrebbero, inoltre, essere necessarie integrazioni, a breve, del Reg. (UE) 2016/679, per quanto riguarda le applicazioni e gli apparecchi che comunicano tra di loro e con le banche dati, senza l’intervento umano.

Osserva inoltre il Parlamento, che alcuni Stati esteri quali Stati Uniti, Giappone, Cina e Corea del Sud stanno prendendo in considerazione, e in una certa misura hanno già adottato, atti normativi in materia di robotica e intelligenza artificiale, e che alcuni Stati membri hanno iniziato a riflettere sulla possibile elaborazione di norme giuridiche.

Il Parlamento è quindi consapevole che «è necessaria una serie di norme che disciplinino in particolare la responsabilità civile per i danni causati da robot», che è una questione fondamentale («ritiene che la responsabilità civile per i danni causati dai robot sia una questione fondamentale, che deve essere altresì analizzata e affrontata a livello di Unione al fine di garantire il medesimo livello di efficienza, trasparenza e coerenza nell’attuazione della certezza giuridica in tutta l’Unione europea nell’interesse tanto dei cittadini e dei consumatori quanto delle imprese») ed invita ad adottare sia uno strumento legislativo, che strumenti para-legislativi, quali linee guida e codici di condotta.

I principi fissati per il futuro strumento legislativo consistono, in primo luogo, nel non limitare in alcun modo «l’entità dei danni» che devono essere risarciti e nel non limitare «le forme di risarcimento» che possono essere offerte alla parte lesa (solo perché il danno è provocato da un soggetto non umano), principi che evocano, latu sensu, quei principi che pochi anni prima erano stati affermati dalla Corte di giustizia nelle sentenze del 24 ottobre 2013, nelle cause C-22/12 e C-277/12 in materia di risarcimento danno ai congiunti di vittima primaria deceduta a seguito di incidente stradale.

Il Parlamento, dopo aver definito l’autonomia di un robot come «la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna», si pone il quesito, se le regole ordinarie in materia di responsabilità siano sufficienti o se siano necessari nuovi principi e regole volte a chiarire la responsabilità legale dei vari attori per azioni e omissioni imputabili ai robot.

Il Parlamento, in altri termini, si domanda se, in base all’attuale quadro giuridico, la responsabilità da prodotto (secondo la quale il produttore di un prodotto è responsabile dei malfunzionamenti) e le norme che disciplinano la responsabilità per azioni dannose (in virtù delle quali l’utente di un prodotto è responsabile di un comportamento che conduce al danno) siano applicabili ai danni causati dai robot e dall’intelligenza artificiale, ponendosi poi il problema, nel caso i robot acquisissero la capacità di assumere decisioni autonome, se siano sufficienti le norme tradizionali.

Il Parlamento osserva, infatti, che la direttiva 85/374/CEE riguarda solamente i danni causati dai difetti di fabbricazione di un robot e a condizione che la persona danneggiata sia in grado di dimostrare il danno effettivo, «il difetto nel prodotto» e il nesso di causalità tra difetto e danno, ma questo potrebbe non essere sufficiente a coprire i danni causati dalla nuova generazione di robot, in quanto questi possono essere dotati di capacità di adattamento e di apprendimento che implicano un certo grado di imprevedibilità nel loro comportamento, dato che «imparerebbero in modo autonomo, in base alle esperienze diversificate di ciascuno», e interagirebbero con l’ambiente in modo unico e imprevedibile.

Sul punto ci si permette di essere critici e di sottolineare come tale imprevedibilità faccia parte di una “imprevedibilità prevedibile”, in quanto anche nella creazione dell’algoritmo più sofisticato, l’ideatore, in base a processi matematici, ha un range di prevedibilità dell’operato del robot, in quanto, se è vero che gli input non vengono tutti inseriti al momento della creazione, ma vengono acquisiti anche durante la “vita” del robot (cd. “autoapprendimento”), il processo matematico che collega gli input, anche se via via acquisiti durante il percorso di attivazione del robot, è comunque sempre immesso dal fattore umano, dall’ideatore.

Proseguendo nell’analisi, il Parlamento evidenzia altri problemi aperti, quali ad esempio, le carenze dell’attuale quadro normativo anche in materia di responsabilità contrattuale, dal momento che le macchine progettate per scegliere le loro controparti, negoziare termini contrattuali, concludere contratti e decidere se e come attuarli, rendono inapplicabili le norme tradizionali in materia di responsabilità contrattuale, con necessità di nuove norme.

3. Robotica e data protection

Una questione estremamente rilevante riguarda la protezione dei dati, in quanto il diritto al rispetto della vita privata e alla protezione dei dati personali, quale stabilito dagli articoli 7 e 8 della Carta e dall’articolo 16 del trattato sul funzionamento dell’Unione europea (TFUE), si applica a tutti gli ambiti della robotica e nel quadro dell’attuazione del Reg. (UE) 679/2016, il Parlamento chiede che vengano chiarite norme e criteri relativi, ad esempio, all’uso di fotocamere e sensori nei robot.

Il Parlamento invita quindi la Commissione, a garantire che siano rispettati − anche nella disciplina dell’intelligenza artificiale − tutti i principi stabiliti dalla normativa sulla protezione dei dati, come la tutela della vita privata fin dalla progettazione e per impostazione predefinita, la minimizzazione dei dati e la limitazione delle finalità, così come meccanismi di controllo trasparenti per i titolari dei dati e misure correttive adeguate conformi alla legislazione dell’Unione in materia di protezione dei dati, auspicando che siano promosse adeguate raccomandazioni e norme da integrare nelle politiche dell’Unione.

Sottolinea inoltre che la libera circolazione dei dati è indispensabile per l’economia digitale e lo sviluppo nel settore della robotica e dell’intelligenza artificiale, ma evidenzia che un elevato livello di sicurezza dei sistemi della robotica, compresi i loro sistemi di dati interni e i flussi di dati, è fondamentale per un utilizzo adeguato dei robot e dell’intelligenza artificiale, sottolineando, altresì, che deve essere garantita la protezione delle reti di robot e intelligenza artificiale interconnessi onde prevenire eventuali violazioni della sicurezza.

4. Problemi aperti nel settore driverless e non solo

Il Parlamento mette poi sotto la lente di ingrandimento le problematiche connesse alle autovetture driverless, essendo ormai la relativa tecnologia alle porte (cfr. paragrafo 1) ed evidenzia le seguenti categorie di problemi:

1) la responsabilità civile (responsabilità e assicurazione);

2) la sicurezza stradale;

3) tutte le tematiche relative all’ambiente (efficienza energetica, utilizzo di tecnologie e fonti di energia rinnovabili, etc.);

4) le problematiche relative ai dati (ad esempio, accesso ai dati, protezione dei dati personali e privacy, condivisione di informazioni);

5) le questioni relative all’infrastruttura TIC-Tecnologie dell’informazione e della comunicazione (ICT-Information and Communications Technology) (ad esempio, un livello elevato di comunicazione efficiente e affidabile);

6) le problematiche relative all’occupazione (ad esempio, la creazione e la perdita di posti di lavoro, la formazione dei conducenti di veicoli commerciali pesanti per la guida dei veicoli automatizzati), etc.

Ma, analogamente, potrebbero essere evidenziate le problematiche per numerosi altri settori, come ad esempio i sistemi aerei a pilotaggio remoto, robot impiegati per l’assistenza agli anziani, robot medici, sostituzione organi danneggiati del corpo umano, educazione e mondo del lavoro (carenze di professionalità), impatto ambientale, etc.

5. Proposte del Parlamento europeo nella risoluzione del 16 febbraio 2017

Il Parlamento formula alcune proposte e suggerimenti per la redazione della successiva normazione da parte della Commissione, ricordando, in primo luogo, che nella scelta tra un regime di responsabilità oggettiva e un approccio della gestione dei rischi, a favore della scelta per un regime di responsabilità oggettiva, milita il fatto che per tale tipo di responsabilità viene richiesto al danneggiato solo la prova del danno avvenuto e l’individuazione di un nesso di causalità tra il funzionamento lesivo del robot e il danno subito dalla parte, ma che a favore dell’approccio di gestione dei rischi, milita il fatto che la responsabilità non si concentra sulla persona “che ha agito con negligenza" in quanto responsabile a livello individuale, bensì sulla persona che, in determinate circostanze, è in grado di minimizzare i rischi e affrontare l’impatto negativo.

Le indicazioni fornite dal Parlamento riguardano:

1) I legittimati passivi. La loro responsabilità dovrebbe essere proporzionale all’effettivo livello di istruzioni impartite al robot e al grado di autonomia di quest’ultimo, di modo che quanto maggiore è la capacità di apprendimento o l’autonomia di un robot e quanto maggiore è la durata della formazione di un robot, tanto maggiore dovrebbe essere la responsabilità del suo formatore; osservando peraltro, che, nella determinazione della responsabilità reale per il danno causato, le competenze derivanti dalla “formazione” di un robot non dovrebbero essere confuse con le competenze che dipendono strettamente dalle sue abilità di autoapprendimento, osservando «che, almeno nella fase attuale, la responsabilità deve essere imputata a un essere umano e non a un robot»; (ma neanche in una fase futura, ci si permette di osservare...).

2) Regime di assicurazione obbligatorio. Per una soluzione alla complessità del problema «di chi la colpa», il Parlamento propone un regime di assicurazione obbligatorio (che tenga conto delle responsabilità non solo dell’ultimo anello della catena, ma di tutte le potenziali responsabilità lungo la catena), in virtù del quale, come avviene già per le automobili, venga imposto ai produttori e i proprietari dei robot di sottoscrivere una copertura assicurativa per i danni potenzialmente causati dai loro robot.

Le problematiche lasciate aperte riguardano invece la scelta tra la creazione di un fondo generale per tutti i robot autonomi intelligenti o di un fondo individuale per ogni categoria di robot e tra il versamento di un contributo una tantum all’immissione sul mercato di un robot o versamenti regolari durante la vita del robot; sollecitando, in ogni caso, il Parlamento, l’istituzione di un numero d’immatricolazione individuale, iscritto in un registro specifico dell’Unione, al fine di associare in modo evidente il robot al suo fondo, onde consentire a chiunque interagisce con il robot di essere informato sulla natura del fondo, sui limiti della responsabilità in caso di danni alle cose, sui nomi e sulle funzioni dei contributori e su tutte le altre informazioni pertinenti.

Il Parlamento propone anche che vi sia la possibilità per il produttore, il programmatore, il proprietario o l’utente di beneficiare di una responsabilità limitata, qualora costituiscano un fondo di risarcimento nonché qualora sottoscrivano congiuntamente un’assicurazione che garantisca un risarcimento in caso di danni arrecati da un robot, e caldeggia l’istituzione di un Fondo di garanzia (come per la Rca), per garantire il risarcimento quando il danno è causato da un robot che non è assicurato.

Il Parlamento, da ultimo, invita il settore assicurativo a elaborare nuovi prodotti e tipologie di offerte in linea con i progressi della robotica.

6. Istituzione di uno status giuridico specifico per i robot

Nella risoluzione del Parlamento europeo del 16 febbraio 2017 viene anche auspicata «l’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi».

Su questo punto ci si permetta un totale disaccordo, sia dal punto di vista tecnico-scientifico, per quanto su evidenziato, sia dal punto di vista della tecnica legislativa, in quanto questa scelta potrebbe incentivare una totale deresponsabilizzazione del produttore e dell’ideatore, un pericoloso laissez faire, considerato che i produttori e ideatori agirebbero su un mercato globale, con regole non uniformi e pericolosi incastri di “scatole cinesi” a livello mondiale, che minerebbero in ultima analisi il concreto risarcimento, per problemi, non ultimi, legati all’effettiva solvibilità del debitore.

7. I singoli Stati e la Convenzione di Vienna del 1968

Per quanto attiene lo stato dell’arte nei singoli Stati, in particolare in materia di auto driverless, si riscontrano vistose anomalie.

Germania

In Europa, la prima legge europea in tema di auto autonome è stata approvata di recente, il 12 maggio 2017 dal Bundestag, sull’onda delle richieste soprattutto dei produttori nazionali, quali Bmw, Mercedes, Volkswagen.

Viene consentita la sperimentazione sulle normali strade tedesche, richiedendo ancora la presenza a bordo di un essere umano, ma consentendo di effettuare test tecnologici che consentano al conducente di fare qualcos’altro, mentre è in viaggio, e non gli impone di tenere le mani sul volante, situazione corrispondente al livello 4 (su 5) di autonomia. Ogni veicolo dovrà essere equipaggiato di una scatola nera molto sofisticata, analoga a quelle impiegate in campo aereospaziale; in aggiunta tutti i dati dovranno essere disponibili per una durata di almeno sei mesi per essere accessibili alle forze dell’ordine in caso di richiesta.

Francia

Le aziende che testano veicoli, come Psa e Renault, devono chiedere una deroga al Ministero dell’ecologia (che comprende anche i trasporti), che dalla fine del 2014 ne ha concesse più di quaranta.

Alla fine del mese di ottobre 2017 è stato inoltre creato l’Alto rappresentante per lo sviluppo dei veicoli autonomi che sta preparando un’evoluzione normativa per facilitare e ampliare le opportunità di sperimentazione per la fine del 2018, con però sempre un essere umano a bordo.

Regno Unito

L’obiettivo è di autorizzare le auto driverless a partire dal 2021, e si sta preparando una riforma dell’assicurazione autoveicoli per consentire a tutte le parti di essere coperte in caso di incidenti che comportino una guida automatizzata.

Giappone

È stato fissato il 2020 come obiettivo per la commercializzazione di veicoli senza conducente, in modo che l’industria sia pronta per le Olimpiadi di Tokyo del 2020.

La Convenzione di Vienna del 1968

Stati Uniti, Giappone e Regno Unito hanno probabilmente maggior margine di manovra, anche grazie al fatto che gli Stati Uniti e il Giappone non hanno firmato la Convenzione di Vienna del 1968 sulla circolazione stradale, e il Regno Unito non l’ha ratificata.

Tale convenzione (che si ricorda è un trattato universale, entrato in vigore il 21 maggio 1977, depositata presso il segretariato dell’Onu, cui hanno partecipato 72 Paesi) non consente, in un contesto commerciale, di andare oltre un certo livello di automazione (a seguito dell’ultimo emendamento l’art. 8 recita: «Ogni guidatore deve essere sempre presente e abile a prendere il controllo del veicolo, i cui sistemi devono poter essere scavalcati o spenti in qualsiasi momento»).

Le previsioni di riforma della Convenzione di Vienna del 1968, parlano di una patente di guida di livello 3 (guida automatizzata, mani sul volante e attenzione del conducente su strada) verso il 2020.

8. Il parere del Comitato economico e sociale europeo

Il Comitato economico e sociale europeo-Cese (organo consultivo, cui partecipano rappresentanti delle varie realtà economiche degli Stati, che si riunisce una volta al mese a Bruxelles) in data 31 maggio 2017, nel documento C-288 pubblicato il 31 agosto 2017, ha espresso varie perplessità rispetto alla risoluzione del Parlamento del 16 febbraio2017.

Il Cese, dopo aver individuato undici settori nei quali l’Intelligenza artificiale (IA) pone sfide per la società (etica; sicurezza; privacy; trasparenza e rendicontabilità; lavoro; istruzione e competenze; (dis)uguaglianza e inclusività; disposizioni legislative e regolamentari; governance e democrazia; guerra; super-intelligenza), si è dichiarato in primo luogo contrario a introdurre una forma di personalità giuridica per i robot o per l’IA, in quanto in tal modo verrebbe compromesso l’effetto di correzione preventiva della nozione di responsabilità giuridica, con possibilità di azzardo morale.

Il Cese non condivide, inoltre, il principio di stabilire una definizione unica di intelligenza artificiale, esistendo varie (sotto)branche, quali, ad esempio l’informatica cognitiva (cognitive computing: algoritmi capaci di ragionamento e comprensione a un livello superiore, ossia più simile alla mente umana), l’apprendimento automatico (machine learning: algoritmi in grado di apprendere autonomamente determinate mansioni), l’intelligenza aumentata (augmented intelligence: collaborazione tra uomo e macchina), la robotica intelligente (AI robotics: intelligenza artificiale incorporata nei robot).

In materia di data protection, poi, il Cese manifesta una forte preoccupazione, essendo ormai numerosi i prodotti (di consumo) dotati di IA integrata: elettrodomestici, giocattoli per bambini, automobili, dispositivi per monitorare la salute (health tracker) e smartphone.

Il Cese sottolinea infatti, che tutti questi prodotti trasmettono dati (spesso personali) alle piattaforme di cloud computing dei produttori e visto che il commercio di dati è in piena espansione, nel senso che i dati generati non rimangono presso il produttore ma vengono rivenduti a terzi, è lecito chiedersi se il rispetto della vita privata sia sufficientemente garantito.

Come dianzi evidenziato, con riferimento alle raccomandazioni del Parlamento, ove si propone di esaminare l’opportunità di introdurre il concetto di «personalità elettronica» per i robot, il Cese è contrario, in quanto vi è il rischio di un uso inappropriato e di abuso di uno status giuridico di questo tipo; il confronto con la responsabilità limitata delle società è fuori luogo, in quanto deve sempre la persona fisica essere responsabile in ultima istanza.

A tale riguardo, il Cese propone di esaminare in quale misura la normativa nazionale e dell’Ue vigente e la giurisprudenza in materia di responsabilità (per danno da prodotti difettosi e di rischio) e colpa propria siano sufficienti a rispondere a tale questione e, in caso contrario, quali soluzioni si impongano sul piano giuridico.

9. De iure condendo

In questa materia dai confini ancora incerti, dottrina e osservatori si interrogano su quali categorie giuridiche utilizzare e se, in modo provocatorio, effettivamente vi sia la necessità a livello europeo di creare nuove norme ad hoc per la nuova categoria della responsabilità civile da “algoritmo” [1].

A fronte di quanti hanno catalogato la responsabilità de qua in una nuova categoria di danno da prodotto, a cui apportare in varia misura dei correttivi, altra parte della dottrina [2] si interroga sulle radici più profonde del nostro sistema di responsabilità per fatti illeciti che va dagli art. 2043 e segg. fino all’art. 2059 cc. Dopo aver analizzato la responsabilità per fatto altri, dagli aspetti più peculiari delle origini del sistema romanistico dello schiavo considerato come res, a quella per fatto dell’animale e a quella dei padroni e committenti per fatto dei “domestici e commessi”, ci si chiede se la responsabilità da cose (attività pericolose, circolazione stradale, cose in custodia) possa essere idonea a disciplinare “la cosa da algoritmo”, o se l’intelligenza artificiale, in quanto capace di autoapprendimento, trovi miglior disciplina negli artt. 2049 (responsabilità del committente) o art. 2052 (danno cagionato da animale).

La particolarità della fattispecie viene rinvenuta nel fatto che la cosa governata dall’algoritmo può trovare la sede della sua “intelligenza” non tanto nell’oggetto materiale, ma in altro da sé, alimentato dalla rete, e che l’”autore” dell’intelligenza artificiale può non coincidere con il produttore del bene che la incorpora, rendendo separabili i profili del produttore e dell’ideatore dell’algoritmo.

Le analisi della fattispecie sono complesse come complesso è il sapere scientifico che ne è alla base, di talché la soluzione proposta propende per una responsabilità oggettiva, con abbandono del principio della colpa, diventando preminente l’evento, l’accadimento in sé, con l’apporto di garanzie assicurative e la creazione di appositi fondi.

Nell’”adattamento” delle norme già esistenti all’evoluzione tecnologica, ampio risalto viene anche dato alle norme in materia di danno da prodotto.

Ci si consentano a questo punto brevissime riflessioni a margine.

La prima osservazione riguarda la responsabilità del proprietario della “cosa” dotata di intelligenza artificiale, che non dovrebbe andare totalmente esente da responsabilità, nel senso che la responsabilità del proprietario andrebbe certo modulata, inserita in un contesto di responsabilità solidale, ove l’apporto causale dovrebbe essere residuale e in percentuale del tutto minoritaria, ma senza scomparire totalmente. E questo, sia consentito, per una sorta di responsabilizzazione dell’utente, rispetto all’oggetto che acquista e utilizza.

Di fronte ad un produttore che commercializza il bene e sovente inserisce on-line o su carta, una serie di spiegazioni, condizioni generali di contratto, che ormai quasi nessuno ha più tempo di leggere, con un obiettivo di vendita a brevissimo termine e con una probabilità molto remota, futura ed incerta di un contenzioso per difetto del prodotto, vuoi per il valore contenuto del bene, vuoi per le difficoltà di intentare una causa dagli aspetti sovente transnazionali, un “filtro” all’immissione incondizionata nel mercato di una quantità di beni dotati di AI, potrebbe essere costituito non solo nell’entità del risarcimento da comminare al produttore e al creatore dell’algoritmo, ma anche nella responsabilizzazione dell’acquirente.

Un’imputazione di responsabilità anche dell’utente finale potrebbe favorire formule commerciali uniformi, regole più chiare nella vendita per consentire all’utente di scegliere con un certo grado di consapevolezza quello che sta acquistando, e, in ultima analisi, potrebbe contribuire a “regolamentare” un mercato che, allo stato, sembra dai contorni ancora oscuri.

L’Internet delle cose (IoT) ormai viene commercializzato via rete in tutti gli ambiti: dall’innaffia piante, al frigorifero che memorizza che cosa manca al suo interno dei prodotti usualmente consumati dal proprietario, al “cerca-gatto”, all’aspirapolvere automatico, alla domotica nell’abitazione (sicurezza, riscaldamento, luci, etc).

Se il divario di conoscenza tra l’ideatore e l’utilizzatore finale risulta ormai abissale (lontani i vecchi tempi dei “pistoni” delle prime 500, con un proprietario e conducente consci della capacità dell’autovettura, con un “dominio”, una capacità di comprensione del funzionamento del veicolo), dall’altro lato un ruolo di responsabilizzazione può ancora averlo l’utente finale, non fosse altro perché, per le regole del mercato, sarà spinto ad acquistare un prodotto che dà maggiori garanzie a livello tecnico e di protezione di rete e che viene corredato da spiegazioni comprensibili, responsabilizzazione che diverrà naturale, nella misura in cui anche il proprietario della cosa sia chiamato in prima linea all’imputazione di responsabilità e al conseguente risarcimento del danno.

10. L’ultimo − ma non trascurabile − tassello

Come dianzi richiamato, molti sono gli scenari rappresentati dalla letteratura e dalle cronache giornalistiche: auto driverless guidate da un’intelligenza esterna che guida altri veicoli mappando un intero comprensorio, che coordina l’intero traffico gestendo illimitate informazioni (Big data), conducenti umani vietatissimi, risarcimento non da responsabilità, ma da evento, per coprire i casi anomali, tramite copertura assicurativa e fondi dedicati.

Manca ancora una tessera del puzzle però: il quantum del risarcimento.

Courts facing Courts, allora, perché è senz’altro al tavolo di discussione sul quantum del risarcimento per la responsabilità da algoritmo, che il giurista-essere umano (e non l’algoritmo predittivo) può riprendersi il suo ruolo da protagonista, mettendosi ad un tavolo, tutte le Corti europee, ed iniziando finalmente quel dibattito, quel dialogo in materia di risarcimento del danno ed entità della sua liquidazione a livello europeo, che ad oggi stenta a decollare, e che invece è così connaturato alla rete che, oltrepassando i confini territoriali, riduce le coordinate spazio-temporali ad un click.



[*] Note a margine del convegno “Intelligenza artificiale e primi profili applicativi: Giustizia, IoT e Lavoratori” (Aula Magna del Palazzo di Giustizia di Milano, 17 aprile 2018) 

[1] U. Ruffolo, Per i fondamenti di un diritto della robotica self-learning; dalla machinery produttiva allauto driverless: verso una “responsabilità da algoritmo”?, in Atti del Convegno 29 novembre 2017-Università per stranieri di Perugia, Giuffrè, Milano, 2017.

[2] AA.VV., Intelligenza artificiale e responsabilità, a cura di U. Ruffolo, Giuffrè, Milano, 2017.

13 giugno 2018
Se ti piace questo articolo e trovi interessante la nostra rivista, iscriviti alla newsletter per ricevere gli aggiornamenti sulle nuove pubblicazioni.
La Banca dati nazionale del Dna e la salvaguardia del diritto al rispetto della vita privata del singolo
La Banca dati nazionale del Dna e la salvaguardia del diritto al rispetto della vita privata del singolo
di Emilio Gatti
La raccolta a fini investigativi e la conservazione dei profili genetici pone delicati problemi di compatibilità delle esigenze investigative con il diritto al rispetto della vita privata e familiare previsto dall’art. 8 della Cedu soprattutto nei confronti di individui indagati ma poi assolti con sentenza definitiva. Il contributo ripercorre la giurisprudenza della Corte europea dei diritti dell’uomo, l’obbligo di creare una banca dati nazionale del Dna stabilito dal Trattato di Prüm e le soluzioni adottate dal legislatore italiano che paiono rispettose dei principi convenzionali e costituzionali, in attesa di verificare la correttezza delle prassi applicative.
6 giugno 2018
Appunti per un progetto di riforma delle garanzie di credito
Appunti per un progetto di riforma delle garanzie di credito
di Francesco Macario
L’Associazione dei civilisti italiani ha promosso una ricerca per l’esame degli ambiti normativi del diritto privato che, considerando in primo luogo le disposizioni del codice civile, mostrano le maggiori criticità ed esigenze di aggiornamento (ossia di “modernizzazione”, per riprendere l’espressione usata dal legislatore tedesco, che una quindicina di anni fa provvedeva alla riforma del diritto generale delle obbligazioni e dei contratti). Nell’ambito di questa ricerca, che investe il diritto dei rapporti patrimoniali tra privati ad ampio raggio, l’area delle garanzie del credito è senza dubbio una delle più complesse e, al contempo, più bisognosa di un’opera organica di svecchiamento delle diverse discipline. La linearità delle distinzioni strutturali tradizionali (in primo luogo, quella tra garanzie personali e reali), che connota il codice civile va dunque ripensata, alla luce in primo luogo della complessità dello scenario normativo e regolamentare dei diversi settori. S’impone una ricerca e ridefinizione dei principi comuni, tanto nelle garanzie personali, quanto nelle garanzie reali, nella difficile sfida che per il giurista, come per l’eventuale legislatore riformatore, determina l’esigenza del raccordo tra le norme generali del diritto comune delle obbligazioni e le diverse discipline settoriali, maturate in considerazione delle esigenze di una prassi, spesso transnazionale, anch’essa da razionalizzare e ricondurre al sistema.
29 maggio 2018
La giurisprudenza del Tribunale di Roma dopo il revirement della Corte di cassazione sull’assegno divorzile
La giurisprudenza del Tribunale di Roma dopo il revirement della Corte di cassazione sull’assegno divorzile
di Franca Mangano
Nell’ultimo anno i giudici della I Sezione civile del Tribunale di Roma si sono confrontati con la sentenza n. 11504/2017 valorizzando, per quanto possibile, gli aspetti di continuità con la precedente giurisprudenza, in vista di una interpretazione dell’istituto dell’assegno divorzile adeguata alla mutata fisionomia del matrimonio ma anche coerente con i principi di solidarietà garantiti dalla Costituzione, nell’auspicio che le Sezioni unite prestino attenzione allo sforzo ricostruttivo dei giudici di merito.
10 maggio 2018
Se telefonando...
Se telefonando...
di Giuseppe Cascini, Elisabetta Cesqui, Valerio Spigarelli
Dialogo a più voci sulla riforma delle intercettazioni
7 maggio 2018
Principio di effettività e diritto del lavoro
Principio di effettività e diritto del lavoro
di Giovanni Armone
Il principio di effettività, elaborato dalla Corte di giustizia per assicurare piena attuazione agli strumenti normativi dell’Ue privi di efficacia diretta, stenta a trovare applicazione nell’ambito del diritto del lavoro, nonostante una importante corrente di pensiero ne abbia da tempo sottolineato il radicamento nei valori costituzionali. Consapevole della crisi attraversata dal diritto del lavoro e dai suoi formanti, dottrinale e giurisprudenziale, il saggio tenta di verificare, attraverso tre esercizi applicativi su tematiche di attualità (contratti a termine, poteri officiosi del giudice e licenziamenti illeciti), se il principio di effettività possa far riacquistare al diritto del lavoro la sua tradizionale capacità di lettura della realtà sociale e di interpretazione dei cambiamenti. Il tentativo è condotto suggerendo che tale rivalutazione possa avvenire inducendo il diritto del lavoro a reimparare dal diritto civile un uso più rigoroso delle categorie e ponendole, opportunamente innervate dai principi del diritto dell’Ue, a servizio di quei valori personali che del diritto del lavoro costituiscono da sempre la cifra identificativa.
24 aprile 2018
Concorrenza tra banche e diffusione di informazioni denigratorie e vere
Concorrenza tra banche e diffusione di informazioni denigratorie e vere
di Aldo Angelo Dolmetta
Prendendo spunto da un caso contenzioso, in cui una banca aveva agito per ottenere il risarcimento del danno derivante dalla condotta di una sua concorrente, che aveva diffuso in una propria pubblicazione periodica il suggerimento di non partecipare all’aumento di capitale della prima (comportamento che la banca attrice qualificava come atto di concorrenza sleale ex art. 2598 cc), il contributo analizza la rilevanza attuale dell’exceptio veritatis quale presupposto di liceità della diffusione al pubblico, da parte di un’impresa, di informazioni denigratorie su un proprio concorrente. In particolare, lo scritto evidenzia la progressiva apertura del diritto vivente verso l’attribuzione di un effetto scriminante alla verità della notizia denigratoria; apertura che però continua a intendere il fatto denigratorio tra concorrenti come dotato di rilevanza meramente negativa (come elemento, cioè di esclusione dell’antigiuridicità di una condotta in sé disapprovata), e non già – ciò che invece si auspica – come dinamica fisiologica e approvata dall’ordinamento, nella prospettiva della promozione di un superiore livello di trasparenza del sistema finanziario.
26 marzo 2018
La Carta dei diritti fondamentali dell’Unione europea e le tecniche decisorie idonee ad assicurarne la efficacia ed effettività
Il controllo del garante per la protezione dei dati personali e l’autorità giudiziaria secondo le più recenti norme eurounitarie
Il controllo del garante per la protezione dei dati personali e l’autorità giudiziaria secondo le più recenti norme eurounitarie
di Federico Sorrentino
In vista della prossima piena applicabilità del Regolamento UE 2016/679 e della prossima scadenza dei termini per il recepimento della Direttiva UE 2016/680 (in materia di protezione dei dati personali) appare opportuno mettere in evidenza la questione degli effetti di tale nuova disciplina con riferimento al controllo, da parte del Garante per la protezione dei dati personali, sull’attività giurisdizionale in campo civile e in campo penale
15 febbraio 2018
Giustizia diffusa e condivisa: confronto e collaborazione nella risoluzione dei conflitti
Giustizia diffusa e condivisa: confronto e collaborazione nella risoluzione dei conflitti
di Antonella Di Florio
La relazione introduttiva e i documenti della XII Assemblea nazionale degli Osservatori sulla giustizia civile
31 gennaio 2018
Attualità delle lezioni tenute in Messico da Piero Calamandrei nel febbraio 1952*
Attualità delle lezioni tenute in Messico da Piero Calamandrei nel febbraio 1952*
di Giuliano Scarselli
I temi affrontati nelle sei conferenze messicane hanno ad oggetto questioni ancora vive e affatto risolte. È un piacere per me riproporle, e prender spunto da esse per valutare pecche e stalli del nostro vigente processo civile, e suggerire (perché no?) qualche piccolo rimedio. A ciò è dedicato questo scritto, diviso in paragrafi, uno per ogni conferenza.
26 gennaio 2018
Newsletter


Fascicolo 2/2018
L’ospite straniero.
La protezione internazionale
nel sistema multilivello di tutela
dei diritti fondamentali
Prassi e orientamenti
La Banca dati nazionale del Dna e la salvaguardia del diritto al rispetto della vita privata del singolo
La Banca dati nazionale del Dna e la salvaguardia del diritto al rispetto della vita privata del singolo
di Emilio Gatti
La raccolta a fini investigativi e la conservazione dei profili genetici pone delicati problemi di compatibilità delle esigenze investigative con il diritto al rispetto della vita privata e familiare previsto dall’art. 8 della Cedu soprattutto nei confronti di individui indagati ma poi assolti con sentenza definitiva. Il contributo ripercorre la giurisprudenza della Corte europea dei diritti dell’uomo, l’obbligo di creare una banca dati nazionale del Dna stabilito dal Trattato di Prüm e le soluzioni adottate dal legislatore italiano che paiono rispettose dei principi convenzionali e costituzionali, in attesa di verificare la correttezza delle prassi applicative.
6 giugno 2018
Cliniche legali e protezione internazionale
Cliniche legali e protezione internazionale
di Simone Spina
Le cliniche legali, promuovendo l'impegno diretto degli studenti in materie sensibili – d'interesse pubblico o collettivo – rappresentano una metodologia didattica innovativa, formativamente utile e culturalmente feconda, in quanto, a forme di trasmissione del sapere di tipo pratico-laboratoriale, uniscono l'attenzione verso i soggetti deboli e svantaggiati, quali sono i richiedenti protezione internazionale.
1 giugno 2018
Appunti per un progetto di riforma delle garanzie di credito
Appunti per un progetto di riforma delle garanzie di credito
di Francesco Macario
L’Associazione dei civilisti italiani ha promosso una ricerca per l’esame degli ambiti normativi del diritto privato che, considerando in primo luogo le disposizioni del codice civile, mostrano le maggiori criticità ed esigenze di aggiornamento (ossia di “modernizzazione”, per riprendere l’espressione usata dal legislatore tedesco, che una quindicina di anni fa provvedeva alla riforma del diritto generale delle obbligazioni e dei contratti). Nell’ambito di questa ricerca, che investe il diritto dei rapporti patrimoniali tra privati ad ampio raggio, l’area delle garanzie del credito è senza dubbio una delle più complesse e, al contempo, più bisognosa di un’opera organica di svecchiamento delle diverse discipline. La linearità delle distinzioni strutturali tradizionali (in primo luogo, quella tra garanzie personali e reali), che connota il codice civile va dunque ripensata, alla luce in primo luogo della complessità dello scenario normativo e regolamentare dei diversi settori. S’impone una ricerca e ridefinizione dei principi comuni, tanto nelle garanzie personali, quanto nelle garanzie reali, nella difficile sfida che per il giurista, come per l’eventuale legislatore riformatore, determina l’esigenza del raccordo tra le norme generali del diritto comune delle obbligazioni e le diverse discipline settoriali, maturate in considerazione delle esigenze di una prassi, spesso transnazionale, anch’essa da razionalizzare e ricondurre al sistema.
29 maggio 2018
Giustizia predittiva. La qualità della giustizia in due tempi
Giustizia predittiva. La qualità della giustizia in due tempi
di Claudio Castelli* e Daniela Piana**
La giustizia predittiva, di cui già oggi si discute in molti Paesi e che viene presentata come un Giano bifronte, un grande rischio di riduzione ad una gestione automatizzata degli small claims ovvero di una differenziazione delle risposte giudiziarie che ha profili di potenziale discriminazione, è un orizzonte non più soltanto futuribile anche nel nostro Paese. Discuterne, darsi gli strumenti conoscitivi e quindi di governance per potere volgere quella che è una opportunità di cambiamento in una reale condizione di potenziamento della prevedibilità della trasparenza e del coordinamento fra sedi giudiziarie, nel pieno rispetto delle garanzie costituzionali di autonomia del giudice, è una priorità che questo lavoro mette al centro del dibattito della magistratura italiana e di tutti i protagonisti del mondo della giustizia.
15 maggio 2018
Appunti per una relazione sul terrorismo di destra *
di Giovanni Salvi
Esauritosi il conflitto tra scelte ideologiche totalizzanti, caratterizzante la guerra fredda, il collante delle destre radicali diviene l’identità etnico-nazionale. Le destre radicali europee guardano quindi all’esperienza statunitense del suprematismo bianco e del super-nazionalismo. Nel mutuarne alcune opzioni organizzative, come la leaderless resistance, il riferimento al nazi-fascismo resta nei simboli e soprattutto nell’originario richiamo al rapporto tra suolo e cultura. Un ruolo fondamentale svolge il web, il cui uso è direttamente collegato alle modifiche di strategia politica. Deve di conseguenza cambiare anche l’approccio investigativo, basata su di una approfondita conoscenza delle nuove realtà.
27 aprile 2018
Una lezione (attuale) di Gramsci sugli affari penali semplici
Una lezione (attuale) di Gramsci sugli affari penali semplici
di Giuseppe Battarino
Turno affari di pronta definizione, turno reati di “fascia B” e, addirittura, turno reati di “fascia C”. I disegni organizzativi dei nostri tribunali e delle nostre procure – al lodevole scopo di far funzionare l’elefantiaca macchina della giustizia – escogitano congegni sempre più efficientisti, che tendono all’obiettivo della ragionevole durata del processo. Ma che rischiano di sottovalutare in modo grave la irripetibilità della vicenda di ciascun imputato e di ciascuna vittima. E, allora, occorre chiedersi con l’Autore – e con un osservatore d’altri tempi – se davvero questa sia la ragionevole durata di un processo; e – più gravemente – se davvero questa sia giurisdizione.
27 aprile 2018