Il 20 gennaio scorso, il Parlamento europeo ha adottato una relazione sull’intelligenza artificiale[1] in tema di questioni relative all’interpretazione e applicazione del diritto internazionale con riferimento agli impieghi civili e militari e all’autorità dello Stato, al di fuori dell’ambito della giustizia penale[2].
L’intelligenza artificiale, infatti, proprio grazie alla sua caratteristica di autonomia e imprevedibilità, ci sta abituando a un utilizzo sempre più intenso, a tutto tondo e (quasi) in tutti i campi, ma a fare da sponda a tali stupefacenti sviluppi, si profilano ampie zone d’ombra, costituite, in primis, da rilievi etici, opacità e insondabilità degli algoritmi, bias discriminatori, e potenziali violazioni di profili estremamente delicati quali quelli dei diritti umani fondamentali, della protezione dei dati e della trasparenza.
Algoritmi discriminatori, alcuni casi pratici
Sul punto, si pensi, ad esempio, al recente caso di “SyRI”, l’algoritmo discriminatorio adottato dal Governo olandese, che ha – di fatto – portato alle dimissioni di quest’ultimo a seguito dello scandalo legato alla (mancata) assegnazione dei sussidi sociali[3].
O ancora alle potenzialità (da intendersi anche nel loro “lato più oscuro”) del brevetto depositato da Microsoft per una chatbot[4] che, istruita da ingegneri mediante l’indicizzazione di tali dati, basandosi sull’impronta digitale[5] lasciata da un soggetto sarà capace di dialogare con l’uomo prendendo le sembianze (persino in 2D o 3D) del soggetto desiderato, sia esso vivo o defunto. Ciò significa che – avendo una sufficiente base dati – si potrebbe “ricreare” o “riportare in vita” chiunque.
Per non parlare, poi, dei rischi connessi al cd. Data Poisoning[6], ossia a quegli attacchi mirati alla manipolazione del set di dati di addestramento dell’AI al fine di controllare il comportamento del sistema in modo tale che questo etichetti esempi dannosi in una classe desiderata (ad esempio, etichettando e-mail di spam come sicure, o un cartello di stop come un semplice limite di velocità).
Ecco che, quindi, rispecchiando l’approccio human centric ormai assodato a livello europeo, la citata relazione sull’intelligenza artificiale – promossa dal francese Gilles Lebreton – ha evidenziato tanto le potenzialità quanto i rischi per la sicurezza insiti e connessi allo sviluppo, alla diffusione e all’utilizzo dell’intelligenza artificiale.
Il quadro normativo nella relazione del Parlamento europeo
Partendo dal profilo normativo, la relazione del Parlamento Europeo si concentra sulla possibilità di un quadro comune a livello europeo che, grazie a definizioni armonizzate e principi etici condivisi, possa occuparsi degli aspetti inerenti l’AI a tutto tondo, includendo lo sviluppo, la diffusione e l’utilizzo della stessa, per arrivare a toccare anche la robotica, le tecnologie correlate e le garanzie necessarie, affinché siano assicurati il rispetto della dignità e dei diritti umani fondamentali.
L’aspetto in questione richiama fortemente quanto emerso anche nella Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni[7]: è fortemente sentita la necessità di garantire lo sviluppo di un’etica dell’AI che abbia come focus una visione “uomo-centrica”, creando fiducia nell’intelligenza artificiale antropocentrica.
Nei casi in cui entrasse in gioco un utilizzo dell’AI a livello transfrontaliero, gli Stati membri sarebbero, così, tenuti a garantire che tali strumenti siano incentrati sull’essere umano, o, comunque, destinati principalmente ad essere messi al servizio dell’umanità e del bene comune.
Da ciò deriverebbe, a scalare, la necessità di occuparsi dell’esame delle questioni interpretative e di applicazione del diritto internazionale, soprattutto in relazione ai negoziati internazionali che riguardino l’uso civile e militare di tali tecnologie, ad esclusione dei profili di rilievo penalistico.
Diritto internazionale e usi militari dell’AI nella relazione del Parlamento europeo
Dalla relazione emerge l’esigenza che l’AI utilizzata in un contesto militare e civile debba essere soggetta a un controllo umano significativo, in modo che sia possibile intervenire in ogni momento al fine di correggerla, spegnerla o, addirittura, disabilitarla ad esempio laddove si verifichino comportamenti imprevisti, interventi accidentali, attacchi informatici o interferenze di terze parti.
Sistemi d’arma autonomi letali[8] (LAWS, Lethal Autonomous Weapons Systems)
Il Parlamento ha chiesto che veda urgentemente la luce una presa di posizione condivisa sui sistemi d’arma autonomi letali, affinché venga bandito lo sviluppo, la produzione e l’uso degli stessi. Sarebbero, quindi, da considerarsi legali solo laddove vi sia un controllo umano a monte, poiché la scelta tra vita e morte può essere determinata solo dall’uomo.
La circostanza, peraltro, solleva questioni etiche e legali fondamentali legate alla reale capacità degli esseri umani di controllare tali sistemi, sistemi che comunque dovrebbero essere usati only as a last resort.
Diritti fondamentali
Circa lo sviluppo e la diffusione di app di monitoraggio e valutazione sociale, rilevata l’estrema invasività ed i rischi per i diritti fondamentali dell’uomo, i deputati hanno richiesto un divieto esplicito dell’utilizzo del rating sociale di massa da parte delle autorità pubbliche come mezzo per limitare i diritti dei cittadini.
Trasporto
Relativamente al settore dei trasporti, è stata, invece, abbracciata l’idea di promuovere la multimodalità, l’interoperabilità e l’efficienza energetica derivanti dall’utilizzo dei sistemi di intelligenza artificiale, anche nel campo della logistica militare.
Autorità legale
Infine, dato l’ampio utilizzo dell’AI anche in campo giudiziario per accelerare i procedimenti e i processi decisionali, è stato affermato che l’intelligenza artificiale non può sostituire gli esseri umani nell’emissione di condanne o, comunque, di decisioni definitive nei processi giudiziari, poiché tali decisioni devono essere rigorosamente soggette a verifica umana e giusto processo. L’AI, la robotica e le tecnologie correlate devono essere sviluppate in modo sicuro e tecnicamente rigoroso, garantendo misure in grado di proteggere gli interessi dei cittadini.
- https://www.europarl.europa.eu/doceo/document/OJQ-9-2021-01-20_IT.html. ↑
- Si veda: Gilles Lebreton, Relazione sull’intelligenza artificiale: questioni relative all’interpretazione e applicazione del diritto internazionale nella misura in cui l’UE è interessata relativamente agli impieghi civili e militari e all’autorità dello Stato al di fuori dell’ambito della giustizia penale [2020/2013(INI)]. ↑
- Per approfondimenti si veda: https://www.agendadigitale.eu/cultura-digitale/algoritmi-troppo-invasivi-contro-le-frodi-fiscali-la-lezione-delle-dimissioni-del-governo-olandese/. ↑
- Cd. agente intelligente, un software creato per rapportarsi e conversare con gli esseri umani. ↑
- Da intendersi qui come l’insieme dei dati generati da un utente sulla rete e/o sui social, comprensivi quindi di note vocali, video, immagini, testi e messaggi. ↑
- Il data poisoning può fornire a soggetti malintenzionati accessi backdoor ai modelli di apprendimento automatico e permettere loro di aggirare i sistemi controllati dagli algoritmi di intelligenza artificiale. ↑
- https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:52019DC0168&from=EN. ↑
- “Nella corrente letteratura militare e giuridica vengono impiegati i termini armi autonome letali o semplicemente armi autonome (per indicare quegli ordigni che possono colpire un obiettivo militare senza l’intervento umano: nei dibattiti più recenti si tende a non distingue più tra armi autonome e armi autonome letali, e la dizione prevalentemente impiegata è quella di armi autonome letali (lethal autonomous weapons, LAWS, secondo la terminologia inglese)”, https://www.iai.it/sites/default/files/pi_n_0081.pdf. ↑