Nella lunga storia dell’uomo, l’esercizio della giustizia, sia se regolata da norme scritte o dalla prassi tramandata da generazione in generazione, ha quasi sempre seguito l’evoluzione della società.
La società si evolve senza chiedere permesso ai giudici e, quando il potere giudiziario si rende conto di non riuscire a gestire adeguatamente dei nuovi fenomeni socio-economici che generano controversie da dirimere, si genera una dialettica col potere legislativo che dovrebbe provare a colmare i cosiddetti vuoti normativi.
Siccome questi adeguamenti non sono mai immediati, nel frattempo il potere giudiziario prova a lavorare sull’interpretazione delle norme già esistenti, tentando di adattarle ai nuovi contesti riconducendo a fattispecie note le figure di reato che si vanno profilando negli ambiti di recente manifestazione.
Questa situazione si è spesso verificata quando la società è stata attraversata da dirompenti innovazioni tecnologiche, foriere delle cosiddette rivoluzioni industriali, che hanno in qualche caso contribuito a plasmare panorami sociali profondamente rinnovati. Nell’ambito di questi processi epocali, anche la giurisprudenza ha fatto la sua parte e, sia in contesti di common law che di civil law, la normativa si è evoluta, integrando le norme (o la prassi) in vigore o introducendo leggi in grado di governare le nuove fattispecie.
Il caso Intelligenza Artificiale
Come ormai è noto, l’Intelligenza Artificiale è un fenomeno tecnico-scientifico che permea la società a tutti i livelli già da diversi anni, ma nell’ultimo decennio, grazie alle straordinarie capacità di elaborazione di cui dispongono gli attuali computer è prepotentemente salito alla ribalta. Tale circostanza ha reso possibile l’implementazione di algoritmi particolarmente complessi, trasformando in concrete applicazioni teorie scientifiche (e non solo), magari sviluppate già dal secolo scorso, rimaste nei cassetti dei ricercatori e dei progettisti per carenza di mezzi di elaborazione.
Prima di arrivare ai problemi giurisprudenziali, per capire bene l’ordine di grandezza del problema (o del guaio?) che devono affrontare i soggetti che si occupano di regolamentare i nuovi fenomeni tecnologici, è bene sottolineare che l’AI è una tecnologia trasversale, cioè abbraccia una molteplicità di settori, sia in ambito strettamente industriale che economico, impattando in modo sempre più invasivo nel campo dei servizi, affacciandosi ammiccante sul mondo professionale, fino a entrare nella sconfinata prateria dell’universo consumer con un’infinità di dispositivi e applicazioni tarate per utenti finali di ogni livello.
L’AI si manifesta su un doppio binario che, da una parte vede transitare algoritmi e applicazioni più o meno intelligenti, dall’altra dà spazio alla robotica, che prova a dare anche corpo e movimento a questa intelligenza.
Finché l’AI è stata prevalentemente oggetto di sperimentazione all’interno delle Università, dei centri di ricerca, dei Settori R&S delle aziende più innovative e di start-up più o meno velleitarie, il dibattito sull’inquadramento normativo e sui risvolti etici, pur sempre molto vivace e profondo, ha seguito ritmi molto pacati e poco orientati ad ottenere risultati tangibili condivisi in tempi rapidi.
In seguito, quando l’affidabilità dei risultati delle sperimentazioni ha raggiunto livelli tali da essere oggetto di rapida industrializzazione, l’adozione di strumenti di AI ha interessato un numero crescente di grandi soggetti economici. I profitti generati hanno, tra l’altro, orientato in modo sempre più strumentale la ricerca nel campo, con alcuni settori (quelli più remunerativi) oggetto di significativi finanziamenti da parte delle aziende private più coinvolte nel business e degli Stati che hanno individuato nell’AI un asset strategico per i loro obiettivi di leadership politico-economica.
A quel punto è stato chiaro che i soggetti più spregiudicati avrebbero potuto aggiudicarsi non solo un vantaggio competitivo sul piano economico, ma, sfruttando alcuni vuoti normativi e gli squilibri di competenze e know-how, avrebbero introdotto sul mercato prodotti AI-based inaffidabili sul piano tecnologico e potenzialmente dannosi anche sul piano etico-giuridico.
Italia e UE: approccio alla regolamentazione dell’AI
Il problema della regolamentazione dell’AI a livello globale non può avere un’unica soluzione condivisa.
Trovare un unico criterio di classificazione dei prodotti a tecnologia AI o che presentano componenti intelligenti è concretamente impossibile con soggetti internazionali come la Cina e gli USA - per citare i due attori che investono maggiormente nel settore. L’Europa, che è sempre stata al centro del dibattito su opportunità e rischi del mondo AI, ha scelto una strada impegnativa, ma che, se percorsa speditamente e con spirito unitario e collaborativo da parte dei paesi membri, potrebbe fornire alle tecnologie dell’Intelligenza Artificiale un quadro regolatorio completo e aperto alle continue spinte prodotte dalla ricerca e dal mercato.
In particolare, il dibattito si è concentrato sul concetto di responsabilità in ambito AI sviluppandosi parallelamente sia sul terreno nazionale sia su quello comunitario.
L’Italia ha svolto un ruolo trainante nella disamina delle problematiche connesse all’AI, basti pensare al convegno Intelligenza Artificiale e Responsabilità, del 29 novembre 2017 presso l’Università per Stranieri di Perugia con il contributo dei maggiori esperti italiani del settore e nel corso del quale sono state dibattute le questioni “calde” che riguardano la responsabilità nell’AI: responsabilità da algoritmo, automobili self-driving, automazione produttiva, robotizzazione medico-farmaceutica, AI e attività contrattuali, nonché le tendenze e discipline unionali.
A proposito di quest’ultimo punto, alla data del convegno, era già stata pubblicata la Risoluzione del Parlamento Europeo del 16 febbraio 2017, pilastro su cui si è costruita l’attuale normativa europea.
Giurisprudenza italiana e Intelligenza Artificiale.
Il dibattito tra i giuristi più autorevoli ha messo in scena una dotta e appassionata sfida che ha avuto come vetrina il convegno di Perugia del 2017: le due tesi contrapposte, pur declinate con mille sfumature diverse dai vari esperti, possono essere così sintetizzate:
L’ordinamento giudiziario italiano e, in particolare, il Codice Civile, è strutturato in modo da poter esercitare un’efficace giurisdizione sui casi di controversie derivanti dall’uso dell’intelligenza artificiale; al massimo servirebbe qualche piccola integrazione.
L’ordinamento giudiziario italiano non comprende molte delle fattispecie che hanno stretta attinenza con la progettazione e l’uso dell’AI; è quindi necessario pensare ad una vera e propria lex robotica.
Norme in materia di responsabilità da intelligenza animale ed umana e riferibilità all’AI
La tesi che sostiene la robustezza dell’architettura normativa italiana rispetto alle fattispecie introdotte dall’AI si basa sulla notevole flessibilità ed estensibilità del corpus normativo costituito dagli articoli 2049-2054 del Codice Civile, ai quali vanno aggiunti gli artt. 2043 e 2048 per affrontare casistiche più complesse. Per completare il quadro è necessario includere anche le norme sulla compravendita (artt. 1470 ss., 1490 ss. e 1496 ss.).
Il nostro Codice Civile, come quasi tutti i codici in vigore nell’Europa continentale, rientra negli ordinamenti cosiddetti di civil law, di stampo romano-germanico, che sono alla base anche del Code Napoleon che ha avuto così tanta diffusione nel contesto legislativo europeo. Questo impianto normativo, di diretta derivazione romanistica, ha dimostrato una elevata potenzialità regolatrice anche su scenari socio-economici e tecnico-produttivi ad alto tasso di innovazione. Infatti tale struttura, basata su una estesa concettualizzazione delle fattispecie di reato, piuttosto che su una specializzazione spinta delle stesse, ha permesso di governare la scorsa rivoluzione industriale senza particolari problemi, agendo sostanzialmente sulla leva interpretativa, adattando i concetti ai nuovi contesti tecnologici e produttivi.
I fautori di questa posizione conservativa sottolineano che tale approccio normativo è stato in grado di regolamentare il commercio e l’uso degli schiavi, esseri umani e in quanto tali dotati di intelligenza self-learning, con problematiche superiori a quelle introdotte dall’autoapprendimento di robot e algoritmi. Non solo, nelle società moderne che si sono lasciate alle spalle la piaga dello schiavismo, la stessa normativa ha regolato il commercio e l’uso dell’intelligenza animale, bene strumentale tipico della società contadina preindustriale.
L’applicazione di norme legate a comportamenti imprevedibili di animali con conseguenti danni a cose e persone, può essere facilmente traslata al caso di macchine impazzite (non dotate di AI), a causa di imperizia dell’utilizzatore e/o di mancata o carente manutenzione. Meno evidente è l’applicazione a contesti in cui l’AI è strutturale o è inserita in alcuni componenti della macchina o del software, ed è su questa peculiarità che si basano, come vedremo, le argomentazioni dei fautori di una nuova legislazione ad hoc.
A sostegno dell’adeguatezza dell’attuale corpus normativo, gli articoli 1490 e ss. che disciplinano i vizi occulti del prodotto oggetto di compravendita, possono coprire tutte quelle problematiche, così tipiche dell’AI, che si manifestano dopo un certo tempo dall’acquisto e dalla messa in esercizio di un prodotto intelligente, in seguito ad errata programmazione degli algoritmi di auto-apprendimento o all’emergere di problematiche di altra natura (bias, ecc.) verificabili solo con uso prolungato ed intensivo del prodotto.
Un’altra problematica molto dibattuta tra i giuristi è quella del confine tra colpa e responsabilità oggettiva, che entrano in gioco in caso di danno causato dall’immissione in commercio e dall’uso di apparecchiature difettose o potenzialmente foriere di danni all’utente. Anche in questo caso, molti ritengono che l’ordinamento attuale riesca a gestire efficacemente queste fattispecie, in considerazione del fatto che le tendenze giurisprudenziali correnti tendono a far confluire il riscontro sanzionatorio verso la responsabilità oggettiva, anche in assenza di colpa, svuotando quindi il dibattito sulle responsabilità tra i vari attori della filiera dell’intelligenza artificiale.
Tuttavia, è necessario ribadire che la posizione dei giuristi che sposano questa tesi non è, in realtà, così tranchante nei confronti di una integrazione normativa specialistica.
- Gli elementi fondanti di una nuova lex robotica - 5 Agosto 2024
- L’AI Act - 8 Aprile 2024
- INTELLIGENZA ARTIFICIALE e Giurisprudenza italiana - 13 Marzo 2024