Uno dei punti su cui si basa l’approccio verso una normativa specifica è la pervasività della tecnologia che chiamiamo Intelligenza Artificiale, ma che in realtà comprende in sé una serie di tecnologie, tutte estremamente complesse e, soprattutto, in fase di rapida evoluzione. Queste tecnologie sono trasversali rispetto ai tanti ambiti di applicazione in cui sono velocemente confluite, orientando, tra l’altro, in modo rivoluzionario (disruptive, come si dice nella comunità scientifica) il mondo del business in cui sono state proiettate. Precisato che questi ambiti sono in continuo aumento, a solo scopo esemplificativo ne citiamo alcuni:
- Industria (robotizzazione, algoritmi di processo, progettazione, ecc.)
- Settore medico-sanitario
- Settore automobilistico (in particolare, vetture a guida autonoma)
- Transazioni finanziarie
- E-commerce
- Sistema giudiziario
- Domotica
- Big data analytics
- Gestione del personale
- Social scoring (attribuzione di punteggi a cittadini, organizzazioni e aziende in base al comportamento)
Si tratta solo di una minuscola panoramica degli attuali settori di applicazione dell’AI, ma basterebbe entrare nel dettaglio anche di una sola di queste voci per capire la portata innovativa di questa tecnologia e le immense problematiche che si prospettano in termini di assunzione di responsabilità da parte degli attori in gioco (progettisti, produttori, committenti, utilizzatori).
Questa rapida e convulsa crescita, sostenuta e in alcuni casi provocata dall’AI, fa affermare a molti autorevoli osservatori che la società globale si trova alle porte di una quarta rivoluzione industriale, di cui gli sviluppi sempre più straordinari nel campo della robotica e dell’AI sono il principale propulsore.
Questa rivoluzione industriale 4.0 non cammina (anzi, corre) sulle gambe della sola intelligenza artificiale, ma si giova di altri due formidabili pilastri:
- I Big Data
- L’IoT (Internet of things)
Per Big Data si intendono le informazioni generate da tutti a tutti i livelli, sempre più numerose e meno gestibili con strumenti che non siano estremamente potenti in termini di capacità di elaborazione e, soprattutto, molto intelligenti (con tutte le accezioni, positive e negative che, come sappiamo può assumere questo termine).
L’IoT, il sistema nervoso della rivoluzione 4.0, rappresenta la rete, sempre più fitta, che collega umani e oggetti permettendo il transito e l’orientamento delle informazioni.
Questi due pilastri crescono e raggiungono sempre nuovi traguardi, svolgendo una funzione di stimolo nei confronti dell’AI, che rappresenta il terminale di questa gigantesca raccolta dati, in grado di mettere in atto le sue sempre crescenti capacità di estrarre e trasformare in conoscenza questa massa enorme di dati grezzi.
La sfida tra questi tre pilastri è continua, si autoalimenta e porta ad un continuo riposizionamento verso l’alto dell’asticella. Quindi, il quadro oggettivo a nostra disposizione, ma soprattutto quello previsionale, dipingono una prospettiva estremamente dinamica e, sotto alcuni aspetti, inquietante, come si verifica per tutte quelle situazioni su cui non si dispone di un controllo completo. Giusto per dare anche qualche numero sul dato di previsione, da stime PwC (PricewaterhouseCoopers, uno dei principali network internazionali fornitori di servizi strategici) le tecnologie AI consentirebbero di aumentare il PIL globale di 15,7 trilioni di dollari (cioè 15,7 milioni di milioni di milioni di dollari, 15,7 * 1018 $) entro il 2030, cioè, potremmo dire con una battuta, dopodomani.
Per tornare agli aspetti normativi, quali sono gli altri elementi che spingono verso la definizione di un nuovo quadro regolatorio dell’AI, oltre alla sua tentacolare capacità di espansione e alla vertiginosa crescita di valore economico delle sue applicazioni? Si individuano nuove categorie giuridiche da disciplinare o da ricondurre a norme esistenti? In realtà, la domanda è mal posta, perché si rischia di affrontare il problema da un’ottica sbagliata. Infatti, se consideriamo l’AI solo come una tecnologia a supporto di altre attività, e quindi, per così dire, ausiliaria, tendiamo a preoccuparci solo delle conseguenze che un suo uso scorretto o improprio può causare, ma se la consideriamo come una tecnologia abilitante, allora sorgono una serie di problematiche in relazione all’essenza stessa dell’AI, che non possono non passare attraverso la definizione di categorie e regole condivise (a livello nazionale ed europeo). In particolare, citiamo tre questioni fondamentali:
- Definizione condivisa di Intelligenza Artificiale: se non si stabiliscono precisi confini definitori, la stessa giurisprudenza finirà per annegare nelle ambiguità e dovrà procedere a forzature interpretative
- Liceità dei prodotti AI immessi sul mercato: non si può autorizzare la distribuzione di prodotti AI-based con le stesse categorie valutative usate finora per prodotti affini; il livello di potenziale pericolosità o semplicemente di incertezza rispetto alle prestazioni di alcuni prodotti richiede la compilazione di elenchi di prodotti leciti, cioè pronti per il mercato, e di una serie di requisiti, in continuo aggiornamento, cui devono uniformarsi i prototipi che aspirano all’autorizzazione
- Problemi di responsabilità: al di là dell’applicazione dell’istituto della responsabilità oggettiva, che si applica in tutti i casi di danni causati da macchine o algoritmi intelligenti senza che ci sia una colpa chiaramente individuata, si pone il caso a monte di robot che potrebbero prendere decisioni sbagliate, in quanto la loro conoscenza acquisita potrebbe contemplare rappresentazioni errate degli ambienti non strutturati, e spesso sconosciuti, che li circondano
L’applicazione del principio di precauzione
Il cosiddetto principio di precauzione è uno strumento di derivazione comunitaria attraverso il quale si giustificano determinate misure legislative e amministrative a protezione di interessi peculiari tra i quali l’ambiente e la salute umana. Le considerazioni, condivisibili o meno, che sono alla base di questo principio non fanno parte del patrimonio culturale da cui derivano le vigenti legislazioni nazionali. La sua applicazione, pertanto, deve essere necessariamente demandata a nuove norme che disciplinano i settori di interesse (come ad esempio salute e ambiente).
Ciò premesso, per approfondire i concetti alla base di questo principio sono estremamente utili le parole autorevoli del Consiglio di Stato: «Il cosiddetto principio di precauzione, di derivazione comunitaria, impone che quando sussistono incertezze riguardo all’esistenza o alla portata di rischi per la salute delle persone, possono essere adottate misure di protezione senza dover attendere che siano pienamente dimostrate l’effettiva esistenza e la gravità di tali rischi […]»” (Cons. St., Sez. IV, 27 marzo 2017, n. 1392)
Nella stessa seduta, si specifica che l’attuazione di tale principio: «comporta che, ogni qual volta non siano conosciuti con certezza i rischi indotti da un’attività potenzialmente pericolosa, l’azione dei pubblici poteri debba tradursi in una prevenzione anticipata rispetto al consolidamento delle conoscenze scientifiche».
Appare evidente la portata rivoluzionaria e, in sé, potenzialmente foriera di abusi, di un principio che, solo qualche decennio fa, sarebbe apparso contraddittorio e addirittura interpretabile come una misura potenzialmente discriminatoria. Il problema che sta all’origine del ricorso al principio di precauzione è l’offerta sul mercato di prodotti e processi che, in fase di test, non hanno completamente sciolto le riserve in merito all’esistenza di rischi per gli utilizzatori umani o per l’ambiente, nel senso che la scienza ufficiale non è o non è ancora in grado di certificarne la non rischiosità.
Quando il potenziale impatto riguarda salute e ambiente, le precauzioni non sono mai troppe, ma è altrettanto evidente che l’analisi dei rischi ha sempre una componente, per così dire, politica, per cui si potrebbe essere fiscali su alcuni prodotti e viceversa tolleranti su altri anche soltanto sulla semplice identificazione dei pericoli.
A complicare le cose, un atteggiamento intransigente del legislatore su posizioni estremamente conservative, avrebbe un impatto negativo sull’economia, bloccando a monte molti risultati prodotti dalle tecnologie innovative. Per questa ragione le istituzioni europee, percependo questo pericolo, ne hanno condizionato l’applicazione al rispetto del principio di proporzionalità, che limita il raggio d’azione dell’intervento precauzionale ai soli fini di necessità.
Questo meccanismo è stato spiegato con estrema chiarezza dalla Corte di Giustizia Europea, quando si è espressa su una precisa definizione del principio in esame: «[…] Tale principio (quello di precauzione, N.d.A.) deve, inoltre essere applicato tenendo conto del principio di proporzionalità, il quale esige che gli atti delle istituzioni dell’Unione non superino i limiti di ciò che è appropriato e necessario per il conseguimento degli obiettivi legittimi perseguiti dalla normativa di cui trattasi, fermo restando che, qualora sia possibile una scelta tra più misure appropriate, si deve ricorrere a quella meno gravosa, e che gli inconvenienti causati non devono essere eccessivi rispetto agli scopi perseguiti». (Corte Giustizia Unione Europea, Sez. I, 9 giugno 2016, n. 78/16)
La Corte parla chiaro: se la scelta è tra bloccare o limitare, il legislatore deve scegliere l’opzione limitativa, dando il via libera solo a quelle funzionalità che non presentano zone d’ombra in fatto di affidabilità scientifica.
È evidente come il principio di precauzione calzi a pennello sull’intelligenza artificiale: i riscontri, ormai numerosi, su algoritmi, dispositivi e robot, ci dicono che un uso incontrollato dell’AI può produrre danni su diversi versanti, dalla banale inefficienza o inaffidabilità (problematica comune a tutti gli apparati tecnologici) a problemi di discriminazione, limitazione dei diritti e danni economici. Senza entrare nel dettaglio dei possibili danni prodotti dall’AI, le tecnologie che concorrono a costruire sistemi basati sull’AI, possono essere considerate potenzialmente pericolose e quindi l’applicazione del principio di precauzione è più che legittima.
Già, ma come? Procedendo a un censimento di tutti i sistemi basati su AI presenti sul mercato o che ne chiedono l’ingresso, attribuendo un punteggio di rischiosità e stabilendo limitazioni sulla base di una scala del rischio. Semplice a dirsi, complicato a farsi, se a metà del 2023, la risoluzione del Parlamento Europeo che dovrebbe recepire tutto il corpus di norme che riguardano l’AI (ormai noto come AI Act) è ancora in fase di approvazione e si spera che avvenga entro la fine dell’anno in corso.
Proprio in virtù del suo potenziale di destabilizzazione di determinati assetti economici, se non applicato con grande senso di responsabilità, tale principio è oggetto di continua attenzione delle varie istituzioni europee. Così la Commissione Europea, nella comunicazione del 2 febbraio del 2000, ne ha chiarito applicazione e portata, stabilendo che «il fatto di invocare o meno il principio di precauzione è una decisione esercitata in condizioni in cui le informazioni scientifiche sono insufficienti, non conclusive o incerte e vi sono indicazioni che i possibili effetti sull’ambiente e sulla salute degli esseri umani, degli animali e delle piante possono essere potenzialmente pericolosi e incompatibili con il livello di protezione prescelto». Questa indicazione, fornita oltre 20 anni fa e che quindi non include i possibili effetti dell’AI, mantiene intatto il corredo valoriale anche in nuovi e imprevedibili scenari. La stessa comunicazione si sofferma molto sul delicato concetto di incertezza scientifica, che costituisce il pilastro del principio in questione e che deve essere attentamente valutato prima di qualsiasi determinazione.
Infine, è la stessa Commissione a riconoscere che la scelta relativa al rischio ritenuto accettabile sia meramente politica e, sempre a dimostrazione dell’attenzione esasperata delle istituzioni europee verso la necessità di corretti equilibri tra i vari portatori di interessi nell’agone economico continentale, la Corte di Giustizia ha rilevato come le misure protettive vanno riesaminate entro periodi ragionevoli dalla loro adozione «a seconda della natura del rischio per la vita o per la salute individuato e del tipo di informazioni scientifiche necessarie per risolvere la situazione di incertezza scientifica e per realizzare una valutazione del rischio più esauriente» (Corte Giustizia Unione Europea, Sez. IV, 19 gennaio 2017, n. 282/15).
La strategia comune europea
Sul piano strettamente giuridico sussistono sufficienti elementi per pensare ad un corpus normativo integrato che permetta ai giudici di emettere delle sentenze senza necessariamente doversi affidare a norme pensate per altri contesti e che richiedono sforzi interpretativi per essere applicati in ambito AI. Ma gli osservatori hanno registrato anche l’impatto sempre crescente che l’AI sta avendo su altri versanti della vita dell’uomo, come l’occupazione, la fiscalità, i diritti civili e l’etica.
L’esigenza di stabilire una vision rispetto a queste grandi tematiche, di per sé a carattere sovranazionale, ha quindi necessariamente spostato l’asse del dibattito verso un livello almeno comunitario, ambito territoriale all’interno del quale non si può prescindere dai grandi valori fondanti dell’UE, come d’altro canto è stato fatto per il GDPR.
In realtà, le istituzioni europee si erano già mosse da tempo, spinte principalmente dalla preoccupazione di salvaguardare la competitività del sistema economico europeo, già penalizzato dal gap di investimenti nell’AI rispetto ai più grandi attori planetari, come gli USA, la Cina e alcuni paesi arabi. Vari organismi comunitari hanno segnalato la necessità di delineare un quadro di regole comuni, in quanto una frammentazione normativa tra i vari stati membri, oltre a pregiudicare il mercato interno, nuocerebbe alla competitività europea all’interno del sistema economico globale.
Una delle prime iniziative degne di nota da parte del Parlamento Europeo, è stata la costituzione già dal 2015 di un gruppo di lavoro denominato “Juri”, con lo scopo di analizzare le questioni legate allo sviluppo dell’AI e della robotica. Il gruppo, che comprendeva tutte le principali Commissioni del Parlamento coinvolte nella problematica (Affari legali, Industria, Ricerca ed energia, Mercato interno, Protezione dei consumatori, Occupazione ed affari sociali), ha prodotto una relazione che ha stabilito: «L’obiettivo primario europeo risiede nel rintracciare un punto di equilibrio che da un lato supporti l’innovazione, la competitività e la produttività industriale dell’UE, dall’altro garantisca un elevato livello di sicurezza e protezione alle libertà e ai diritti dei cittadini».
I principi enunciati dalla relazione “Juri” sono alla base di tutta la corposa produzione di risoluzioni e altre determinazioni europee sulla materia. Gli stessi principi sono alla base del GDPR (il regolamento 2016/679 sulla protezione dei dati personali) varato in via sperimentale nel 2016 e in via definitiva nel 2018. In pratica, il legislatore europeo è alla costante ricerca di un punto di equilibrio tra le esigenze di sviluppo economico e quelle di salvaguardia dei principi imprescindibili di sicurezza e protezione delle libertà e dei diritti dei cittadini. Così come nel GDPR il tessuto normativo non è mai rivolto a bloccare la circolazione delle informazioni all’interno e all’esterno dell’UE, bensì a minimizzare il rischio di violazioni, i principi ispiratori della normativa sull’AI mettono al primo posto il supporto all’innovazione, alla competitività e alla produttività industriale, spingendo a cercare dispositivi regolatori che, pur garantendo sicurezza, libertà e diritti, interferiscano il meno possibile con la fluidità del sistema economico.
Sulla spinta della relazione “Juri”, il Parlamento Europeo ha varato il primo documento organico sulla regolamentazione dell’AI, la Risoluzione P.E. del 16/02/2017. Questa risoluzione ha chiesto alla Commissione Europea l’adozione di una proposta di direttiva che costituisse la linea guida su AI e robotica per tutti gli stati membri dell’Unione.
La risoluzione del Parlamento Europeo del 16 febbraio 2017
La risoluzione del Parlamento Europeo 2015/2103 (INL) «recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica», contiene al suo interno i principi a cui dovrebbero uniformarsi le norme che regolano lo sviluppo e l’utilizzo dell’AI, sottolineando il pieno rispetto dei diritti fondamentali dei cittadini dell’Unione.
Merita una citazione il considerando A nell’Introduzione della risoluzione, che recita testualmente:
«Considerando che, dal mostro di Frankenstein ideato da Mary Shelley al mito classico di Pigmalione, passando per la storia del Golem di Praga e il robot di Karel Čapek, che ha coniato la parola, gli esseri umani hanno fantasticato sulla possibilità di costruire macchine intelligenti, spesso androidi con caratteristiche umane» che di fatto sancisce l’ineluttabilità dell’interesse dell’uomo verso la creazione di macchine intelligenti e androidi, accettando come un dato di fatto la vocazione alla creazione da parte dell’essere umano e la necessità di non imbrigliare questo anelito, ma solo, come il dettato della risoluzione espliciterà, di impedire che questa spinta creatrice possa danneggiare altri esseri umani.
Degno di nota anche il considerando T:
«Considerando che le leggi di Asimov devono essere considerate come rivolte ai progettisti, ai fabbricanti e agli utilizzatori di robot, compresi i robot con capacità di autonomia e di autoapprendimento integrate, dal momento che tali leggi non possono essere convertite in codice macchina» che, come mai probabilmente Asimov avrebbe immaginato, fornisce una patente di nobiltà alle famosissime leggi che, notoriamente, erano solo una brillante invenzione letteraria. Tra l’altro, l’ultima frase sul codice macchina, oggi, a distanza di sei anni, potrebbe essere messa in discussione, scatenando un dialogo dei massimi sistemi…
Di questa risoluzione, che resta una pietra miliare nel percorso normativo europeo, è opportuno richiamare i primi tre principi, che restano alla base delle successive determinazioni:
Principi generali riguardanti lo sviluppo della robotica e dell'intelligenza artificiale per uso civile
1. invita la Commissione a proporre definizioni europee comuni di sistemi ciberfisici, di sistemi autonomi, di robot autonomi intelligenti e delle loro sottocategorie, prendendo in considerazione le seguenti caratteristiche di un robot intelligente:
- l’ottenimento di autonomia grazie a sensori e/o mediante lo scambio di dati con il suo ambiente (interconnettività) e lo scambio e l’analisi di tali dati;
- l’autoapprendimento dall’esperienza e attraverso l’interazione (criterio facoltativo);
almeno un supporto fisico minore; - l’adattamento del proprio comportamento e delle proprie azioni all’ambiente;
- l'assenza di vita in termini biologici;
2. ritiene che debba essere introdotto un sistema globale dell'Unione per la registrazione dei robot avanzati nel mercato interno dell’Unione, laddove necessario e pertinente per categorie specifiche di robot, e invita la Commissione a stabilire criteri per la classificazione dei robot da registrare; invita, in tale contesto, la Commissione a valutare se sia opportuno affidare la gestione del sistema di registrazione e del registro a un’agenzia designata dell’UE per la robotica e l’intelligenza artificiale;
3.sottolinea che lo sviluppo della tecnologia robotica dovrebbe mirare a integrare le capacità umane e non a sostituirle; ritiene che sia fondamentale, nello sviluppo della robotica e dell’intelligenza artificiale, garantire che gli uomini mantengano in qualsiasi momento il controllo sulle macchine intelligenti; ritiene che dovrebbe essere prestata un’attenzione particolare alla possibilità che nasca un attaccamento emotivo tra gli uomini e i robot, in particolare per i gruppi vulnerabili (bambini, anziani e disabili), e sottolinea gli interrogativi connessi al grave impatto emotivo e fisico che un tale attaccamento potrebbe avere sugli uomini.
Dalla pubblicazione della risoluzione del 2017, la Commissione, pur non dando seguito all’emanazione di una specifica direttiva, ha continuato a tenere in caldo la problematica AI, ma soprattutto ha tenuto d’occhio l’evolversi della ricerca e della tecnologia nel settore, preoccupata di concordare politiche comuni con gli Stati membri, ma rimandando la sistematizzazione della materia regolatoria.
Con la Comunicazione n. 795 del 7/12/2018, la Commissione ha definito un piano programmatico europeo in tema di intelligenza artificiale, focalizzandosi sul tema degli investimenti da dedicare a tale tecnologia in considerazione del suo particolare e trasversale potenziale economico e sociale. Viene ribadito che il coordinamento a livello europeo è essenziale per garantire il successo dei vari investimenti previsti dalla Commissione nel campo dell’AI. Particolare attenzione viene dedicata a garantire, oltre ad un livello di investimenti che tenti di colmare in parte il divario con i principali competitor, anche un livello elevato di eccellenza tecnologica, introducendo applicazioni all’avanguardia sul mercato, in settori rilevanti come l’agricoltura intelligente, le città intelligenti e connesse e i veicoli a guida autonoma.
Anche l’attuale Commissione insediatasi il 1° dicembre 2019 ha continuato a dare notevole rilievo al tema dell’AI. Nel discorso alla seduta plenaria del Parlamento Europeo del 27 novembre 2019, la Presidente eletta Ursula Von der Leyen ha sostenuto la necessità di controllare e possedere in Europa le tecnologie abilitanti fondamentali, tra le quali è stata inclusa anche l’intelligenza artificiale, insieme all’informatica quantistica e alla blockchain. Importante il richiamo all’adeguamento normativo sulla scia dell’allora giovane GDPR: «[…] con il regolamento generale sulla protezione dei dati abbiamo definito un quadro di riferimento a livello mondiale: dobbiamo ora fare lo stesso anche per l’intelligenza artificiale […]».
La presidente von der Leyen, inoltre, nei suoi orientamenti politici per la Commissione 2019-2024 raccolti nella pubblicazione dal titolo Un’Unione più ambiziosa, ha annunciato che la Commissione avrebbe presentato una normativa per un approccio europeo coordinato alle implicazioni umane ed etiche dell’intelligenza artificiale. A seguito di tale annuncio la Commissione ha pubblicato il 19 febbraio 2020 il Libro bianco sull’intelligenza artificiale - Un approccio europeo all’eccellenza e alla fiducia, che definisce le opzioni strategiche su come conseguire il duplice obiettivo di promuovere l’adozione dell'AI e affrontare i rischi associati a determinati utilizzi di tale tecnologia.
Ancora una volta, come si può constatare dalla successione ravvicinata di documenti e prese di posizione ufficiali da parte della Commissione, si rileva la costante osservazione degli sviluppi scientifici e tecnologici dell’AI e, soprattutto, la costante preoccupazione degli organismi europei di mantenere un equilibrio tra crescita e controllo, tra innovazione e rispetto dei valori e dei diritti. Mancava solo il tassello finale, il Regolamento.
- Gli elementi fondanti di una nuova lex robotica - 5 Agosto 2024
- L’AI Act - 8 Aprile 2024
- INTELLIGENZA ARTIFICIALE e Giurisprudenza italiana - 13 Marzo 2024