Alla base dell’AI stanno i sistemi di calcolo e dunque gli algoritmi, che in informatica e matematica identificano un procedimento che risolve un determinato problema attraverso un numero finito di passi.
Premettendo doverosamente che ad oggi un’intelligenza artificiale vera e propria, totalmente autonoma in tutto e per tutto, ancora non esiste, è interessante guardare al settore delle auto a guida autonoma in quanto è quello che più ci si avvicina e, dunque, ci permette di intravedere le potenzialità (e le problematicità) di un’AI propriamente intesa.
La responsabilità civile di un’auto a guida autonoma
Giusto per fare un esempio sul punto, in ambito automotive appunto, nel marzo 2018 in Arizona un’auto Uber driverless (auto condotta mediante intelligenza artificiale) investiva su strada pubblica un pedone, uccidendolo. Secondo i giudici, la responsabilità primaria andava fatta ricadere in capo a Uber e al veicolo. Nonostante il rilevamento della presenza sulla traiettoria di un corpo estraneo, infatti, l’auto non ha rallentato, fallendo, così, il riconoscimento del pedone quale ostacolo da evitare. L’assistente di bordo azionava i pedali troppo tardi, mentre la vittima (sotto l’effetto di stupefacenti) avrebbe attraversato la carreggiata lontano dalle strisce pedonali, cambiando traiettoria all’ultimo momento.
Tralasciando gli eventuali rilievi relativi al concorso di colpa, nel caso di specie le problematiche che emergono con maggiore forza e che necessiterebbero di una regolamentazione – come facilmente immaginabile – sono da ricercarsi nei profili assicurativi, di sicurezza stradale, di sicurezza dei dati, di infrastruttura e comunicazione, di cybersecurity, di responsabilità civile/penale e risarcitori.
Con riferimento a questi due ultimi profili, non solo in ambito automotive, ma più in generale con riguardo all’AI, il problema dell’attribuzione della responsabilità in caso di errore e del risarcimento dell’eventuale danno sono temi di grande rilevanza, tanto che il Parlamento Europeo con risoluzione del 16 febbraio 2017[1] aveva avanzato la proposta di un codice etico-deontologico per il settore dell’intelligenza artificiale, precisando che la responsabilità civile per danno causato da algoritmo non debba subire né una limitazione del tipo e dell’entità del danno risarcibile, né delle “forme di risarcimento che possono essere offerte alla parte lesa per il semplice fatto che il danno sia provocato da un soggetto non umano”.
Si fa strada il concetto di “danno da algoritmo”
Si potrebbe, quindi, aprire la strada per una responsabilità civile per danno da algoritmo (forse anche mediante la creazione di una personalità giuridica ad hoc), quanto meno nei casi di algoritmi generati da machine learning o deep learning, caratterizzati – oltre che dai tre elementi tipici dell’AI (interattività, autonomia e adattabilità) – anche dall’imprevedibilità.
Sulle prime la reazione spontanea è quella di una certa ritrosia, un po’ come – volendo usare un parallelismo – quella che si ebbe all’idea del riconoscimento di una responsabilità penale in capo alle persone giuridiche[2], muovendo dall’assunto che la responsabilità penale è personale[3] e dunque, by definition, esistente e concepibile per le sole persone fisiche.
I timori che spingono a tali riflessioni risiedono appunto nelle caratteristiche proprie dei robot, soprattutto in caso di machine learning e deep learning, ovverosia nella loro intrinseca capacità di apprendimento, di adattamento automatico, di azione e di risoluzione autonoma delle problematiche che gli si presentino, mediante l’analitica prescrittiva, senza – potenzialmente – alcuna necessità di intervento (anche correttivo) umano.
Se sono in grado di autoregolamentarsi e di agire autonomamente senza alcuna ulteriore supervisione o intervento, senza quindi, per così dire, un double check, le possibilità di errore sono tutt’altro che remote.
Si pensi, ad esempio, ai potenziali profili di rischio che potrebbero – rectius, potranno – derivare dall’introduzione nel mondo per come lo conosciamo dell’ultimo prodotto della ricerca scientifica: lo Xenobot, il primo “robot vivente e autorigenerante” nato dalla bioingegneria. Entità ibride, organismi multicellulari artificiali elaborati a partire da cellule staminali mediante un algoritmo e capaci, ad esempio, di viaggiare nel corpo umano per somministrare farmaci, ripulire arterie, contrastare patologie e tumori, o di ripulire gli oceani.
Figlia di tale complessità sarà di certo anche l’ardua individuazione del necessario nesso di causalità tra danno e condotta scatenante, in questi casi operata direttamente dall’AI.
Le direttive italiana ed europea sulle “macchine”
È giusto il caso di ricordare che in materia di AI le normative a livello europeo esistenti e applicabili sono la direttiva “Macchine” (Direttiva 2006/42/CE), la Direttiva 01/95/CE sulla sicurezza generale dei prodotti e la Direttiva 99/44/CE sulla vendita e le garanzie dei beni di consumo.
Vige, qui, il principio della responsabilità oggettiva (a prescindere, dunque, dalla sussistenza di dolo o colpa) del produttore in caso di danno derivante da un sistema intelligente difettoso. Sul punto, merita una digressione la definizione del termine “produttore” che, a livello europeo, dovrebbe intendersi quale “fabbricante di un prodotto finito, di una materia prima o di una parte del prodotto finito”[4]. Si specifica ciò poiché essendo l’AI costituita da sistemi complessi vi sarebbe la possibilità di individuare, oltre al produttore, ulteriori responsabili, partendo da chi ne abbia realizzato una singola parte sino ad arrivare – in via potenziale – direttamente all’algoritmo di base del sistema.
Altra questione è, invece, quella relativa ai casi di danno prodotto direttamente dall’AI in qualità di soggetto agente. Secondo alcuni nulla osterebbe al riconoscimento di una responsabilità anche penale in capo all’AI, secondo altri, invece, non sarebbero ravvisabili in seno all’intelligenza artificiale gli elementi costitutivi di tale responsabilità e ancor meno avrebbe senso la comminazione di una pena ad una entità robotica.
Similmente, in ambito civile è ancora del tutto aperta la quaestio circa la corretta ascrizione della fattispecie all’istituto giuridico più consono, ovvero: negligenza produttiva, danno da prodotto difettoso, responsabilità extracontrattuale o – addirittura – danno da algoritmo (o da “personalità elettronica”)?
La prima opzione azionabile dall’interessato, quanto meno in Italia, a fronte di un danno prodotto o indotto da un robot o da un algoritmo potrebbe appunto essere quella della responsabilità per colpa (negligenza produttiva, ovverosia adozione di tecnologie ormai superate, carenza di controlli nella produzione o cattiva organizzazione aziendale).
Ecco che quindi ci si potrà avvalere delle tutele previste dall’articolo 2049 c.c., secondo cui
“i padroni e i committenti sono responsabili per i danni arrecati dal fatto illecito dei loro domestici e commessi nell’esercizio delle incombenze a cui sono adibiti”.
In via alternativa, bisognerà rifarsi alla più classica bipartizione tra responsabilità contrattuale ed extracontrattuale, con tutto ciò che ne consegue, soprattutto sotto il profilo dell’onere probatorio e di prescrittibilità dell’azione.
In tema di prodotto difettoso, infine, è interessante guardare al ragionamento del Parlamento europeo – di cui alla risoluzione già citata – secondo cui tale ipotesi di responsabilità potrebbe non essere sufficiente a fronte dei danni potenzialmente causabili dalle nuove forme di AI che “imparerebbero in modo autonomo, in base alle esperienze diversificate di ciascuno”.
Nella risoluzione si può leggere, altresì, l’ipotesi di istituire “uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi”.
Come si è visto, dunque, per quanto riguarda la protezione dei diritti fondamentali e dei consumatori, il quadro legislativo (soprattutto europeo) comprende numerose disposizioni legislative a tutela degli interessati, ma se è vero che il diritto dell’UE rimane, in linea di principio, pienamente applicabile indipendentemente dal fatto che l’IA venga o meno utilizzata, è importante determinare se la sua applicazione sia sufficiente per affrontare i rischi creati dall’IA o dai sistemi informatici o se sia necessario adattare alcuni strumenti giuridici specifici.
Le indicazioni del White Paper della Commissione Europea
Sul punto, infatti, come si legge nel White Paper del 19 febbraio 2020 della Commissione Europea[5], “gli attori economici rimangono pienamente responsabili di garantire che l’IA sia conforme alle attuali norme sulla protezione dei consumatori. Qualsiasi sfruttamento algoritmico del comportamento del consumatore in violazione delle disposizioni esistenti è proibito e le violazioni saranno sanzionate di conseguenza”.
La Commissione ha però ritenuto che il quadro legislativo potrebbe essere migliorato per far fronte ai seguenti rischi e situazioni:
– applicazione e monitoraggio efficaci del rispetto della legislazione vigente dell’UE e degli Stati membri;
– limitazioni del campo di applicazione della vigente legislazione europea;
– funzionalità modificate dai sistemi di intelligenza artificiale;
– modifiche al concetto di sicurezza;
– incertezza sulla distribuzione delle responsabilità tra i diversi operatori economici nella catena di approvvigionamento.
Nel citato White Paper la Commissione arriva, infine, alla conclusione che, oltre a eventuali adattamenti della legislazione già esistente, potrebbe essere necessario prevedere nuove misure legislative espressamente dedicate all’AI al fine di garantire l’adeguatezza del quadro giuridico, e nello specifico ipotizza una classificazione dell’AI che permetta di distinguere quelle “ad alto rischio”, a seconda delle forze in gioco, esaminando cioè l’esistenza di rischi significativi associati tanto al settore quanto all’uso previsto, in particolare dal punto di tutela dei diritti dei consumatori e dei diritti fondamentali[6].
I requisiti obbligatori contenuti nel (futuro) nuovo quadro normativo per l’AI, salvo casi eccezionali, dovrebbero applicarsi in linea di principio solo alle AI identificate come ad alto rischio.
Appendice
Per inquadrare meglio l’argomento sopra esposto riportiamo alcune definizioni di “intelligenza artificiale[7]”: l’“insieme di studi e tecniche che tendono alla realizzazione di macchine, specialmente calcolatori elettronici, in grado di risolvere problemi e di riprodurre attività proprie dell’intelligenza umana”.
Nella sua comunicazione sull’AI per l’Europa, la Commissione ha proposto una prima definizione dell’AI, che è poi stata perfezionata da un gruppo di esperti di alto livello nei termini che seguono: “I sistemi di intelligenza artificiale (AI) sono sistemi software (e possibilmente hardware) progettati da esseri umani e che, avendo ricevuto un obiettivo complesso, agiscono nel mondo reale o digitale percependo il loro ambiente attraverso l’acquisizione di dati, interpretando i dati strutturati o non strutturati raccolti, applicando il ragionamento alla conoscenza o elaborando le informazioni derivate da questi dati e decidendo le migliori azioni da intraprendere per raggiungere l’obiettivo dato. I sistemi di intelligenza artificiale possono utilizzare regole simboliche o apprendere un modello numerico. Possono anche adattare il loro comportamento analizzando come l’ambiente è influenzato dalle loro azioni precedenti”[8].
- Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL). ↑
- D.lgs. 231/2001. ↑
- Articolo 27, comma 1, Costituzione italiana. ↑
- Si vedano Direttiva n. 374/1985/CEE e D.Lgs. n. 206/2005 (cd. Codice del consumo). ↑
- White Paper on Artificial Intelligence: a European approach to excellence and trust, https://ec.europa.eu/info/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en.
- Ad esempio in ambito di assistenza sanitaria; trasporto; energia e parti del settore pubblico. ↑
- V. dizionario De Mauro. ↑
- Gruppo di esperti ad alto livello sull’IA, Definizione dell’IA, pagina 8. ↑