Regolamento europeo per l’intelligenza artificiale, sulla bozza c’è ancora da lavorare

La bozza di regolamento europeo delinea un framework legislativo europeo per dare regole certe all’AI con un approccio basato sul rischio, definendo quattro fasce nelle quali far rientrare tutti i sistemi di intelligenza artificiale. Tuttavia, il documento suscita dubbi e presenta molte lacune

Pubblicato il 29 Apr 2021

Luca Sambucci

Esperto e consulente di AI Security e AI Strategy

regolamento AI

L’AI spiegata agli umani

Come molti avranno già letto nei resoconti degli ultimi giorni, la Commissione Europea ha rilasciato la sua proposta di regolamento sull’intelligenza artificiale o “Artificial Intelligence Act” (AIA). Riassunto brevemente, il Regolamento europeo intende creare un framework legislativo europeo per regolamentare l’AI con un approccio basato sul rischio, definendo quattro fasce nelle quali far rientrare tutti i sistemi di intelligenza artificiale.

Le quattro fasce di rischio dell’AI previste dal Regolamento

  1. Rischio inaccettabile: divieto per un limitato gruppo di usi particolarmente dannosi dell’AI che contravvengono ai valori dell’UE poiché violerebbero i diritti fondamentali, ad esempio il social scoring come quello attuato in Cina, lo sfruttamento delle vulnerabilità dei bambini, l’uso di tecniche subliminali e – a parte diverse eccezioni per le forze dell’ordine – i sistemi di identificazione biometrica (fra i quali spicca il riconoscimento facciale), a distanza e in tempo reale, in aree pubblicamente accessibili.
  2. Rischio elevato: un numero limitato di sistemi AI, elencati nell’Allegato III della proposta, che determinano un impatto potenzialmente negativo sulla sicurezza delle persone o sui loro diritti fondamentali. Prevedo che tale Allegato III, visti i vincoli, i requisiti obbligatori e le procedure collegate alla diffusione di tali sistemi, diventi nei prossimi mesi terreno di scontro fra legislatori e aziende, con queste ultime che cercheranno di far togliere o creare eccezioni a qualche loro tecnologia inclusa nella lista. Fra gli stringenti requisiti richiesti, infatti, vi sono l’obbligo a usare dataset di alta qualità, la creazione di adeguata documentazione tecnica, la tenuta di registri, la trasparenza e la fornitura di informazioni agli utenti, la supervisione umana e la robustezza, la precisione e la sicurezza informatica. In caso di violazione le autorità nazionali potranno avere accesso alle informazioni necessarie per indagare se l’uso del sistema di AI è stato realizzato rispettando la legge. Questo significa, in parole povere, che se un Paese dell’Unione dovesse ravvisare una violazione in un sistema di intelligenza artificiale statunitense, cinese o russo, per fare alcuni esempi, le autorità di detto Paese potranno esaminare tutta la documentazione tecnica, inclusi i dataset utilizzati, come indica chiaramente il primo comma dell’art. 64. Dataset che a volte sono considerati dalle aziende, a ragione, un segreto industriale. E non pensiate che un’azienda possa sottrarsi a tali controlli con facilità: il testo prevede multe fino al 6% del fatturato mondiale annuale per chi infrange le regole. Ecco perché nessuno vorrà vedere i propri sistemi AI finire nell’elenco di quelli a rischio elevato.
  3. Rischio limitato: sistemi di AI per i quali sono imposti specifici requisiti di trasparenza, ad esempio quando c’è un chiaro rischio di manipolazione (pensiamo all’uso di chatbot). In quei casi la trasparenza impone che gli utenti siano consapevoli di stare interagendo con una macchina.
  4. Rischio minimo: tutti gli altri sistemi AI possono essere sviluppati e utilizzati nel rispetto della legislazione esistente senza ulteriori obblighi legali. Secondo il documento la stragrande maggioranza dei sistemi di intelligenza artificiale attualmente utilizzati nell’UE rientrano in questa categoria. I fornitori di tali sistemi possono scegliere, su base volontaria, di applicare i requisiti per un’AI affidabile e aderire a codici di condotta volontari.

La distinzione fra Europa, Usa, Cina, Russia e Regno Unito

La grande insistenza sui rischi, sul primato degli esseri umani e sull’etica dell’intelligenza artificiale non fa che proseguire la fase di posizionamento strategico dell’Unione Europea. Un posizionamento che distingue l’Europa dagli altri grandi “cluster” di sviluppo e ricerca, come gli Stati Uniti, la Cina, la Russia e – non dimentichiamolo – il Regno Unito.

I primi tre non fanno mistero di spingere molto su un’AI risoluta, intraprendente, sicura protagonista nel modellare la società civile, in linea con i desiderata di chi governa i rispettivi Paesi: produttiva e innovativa per gli americani; compatta e ordinata per i cinesi; asservita e obbediente per i russi. Le potenze mondiali, inoltre, puntano decisamente sul fattore militare dell’AI (per dire, i russi hanno appena creato la prima unità armata con robot d’assalto, mentre un team misto privato-governativo USA ha raccomandato al Pentagono di proseguire la ricerca sulle armi autonome), cosa che fa rabbrividire molti osservatori europei.

Un punto interrogativo è il Regno Unito, che non ha ancora pubblicato ufficialmente la sua strategia (lo farà quest’anno), ma che nel frattempo ha fatto rilasciare dall’AI Council una roadmap con princìpi e programmi che in certi passaggi mi sono piaciuti molto (“ensure that every child leaves school with a basic sense of how AI works” dovrebbe essere appeso su ogni ufficio del nostro Ministero dell’Istruzione finché non entrerà in testa a tutti), mentre in altri resta ancora piuttosto nebulosa.

La posizione dell’Unione Europea

L’Unione Europea, dunque, si ritrova tutto sommato sola nel raccogliere lo scettro morale dell’AI etica e umano-centrica. In mezzo a grandi player e superpotenze che non esiteranno a sviluppare una intelligenza artificiale buona con i buoni e cattiva con i cattivi – a seconda ovviamente dei singoli punti di vista – l’Europa vuole un’AI che non faccia male a nessuno, o che ne faccia il meno possibile, e per farlo adotta l’unico metodo che conosce: creare sabbie mobili regolatorie un po’ ovunque.

Il che non è poi così sorprendente. Non dimentichiamo che quella che abbiamo fra le mani, seppur presentata con la fanfara che merita, è pur sempre una proposta. Dovrà prima passare a Parlamento e Consiglio UE, dovrà essere necessariamente armonizzata con la Carta dei diritti fondamentali dell’UE, con la proposta di Regolamento sulla governance dei dati e con la nuova Direttiva macchine, quindi sarà oggetto di trasposizione presso le legislazioni dei singoli Stati membri (l’iter si può seguire qui). Chi l’ha stilata era ben consapevole che la palla sarebbe poi passata ad altri, incaricati di correggere, integrare, tagliare, spostare le virgole a seconda delle onde che farà il documento.

Regolamento AI e riconoscimento facciale

Avrà pesato anche l’incessante battaglia di alcune associazioni, le preoccupazioni di molti cittadini e la lettera aperta di ben 116 membri del Parlamento europeo contro le tecnologie di riconoscimento facciale, per spingere gli autori del testo a “leggere l’aria” – come dicono i giapponesi – e mettere bastoni più o meno grandi fra le ruote di qualsiasi applicazione dell’intelligenza artificiale che possa essere vista come controversa.

L’approccio diffusamente cauto è stato determinato quindi da un mix di fattori, fra i quali la chiara impostazione europea che pone l’essere umano sempre e comunque al primo posto, da evidenti pressioni della società civile che non vuole che i cittadini abbiano a soffrire gli effetti nocivi dalle nuove tecnologie, da altrettanto evidenti pressioni politiche che seguono a ruota la società civile, da questioni geopolitiche che portano l’UE a differenziarsi dalle posizioni di altre potenze mondiali e – non ultima – dalla consapevolezza che l’iter che ancora attende la proposta di regolamento è lungo e pieno di potenziali modifiche.

Tuttavia, che qualcuno degli autori (o magari altre persone vicine alla stesura del documento) avessero dubbi sui contenuti del testo credo lo si possa intuire dal fatto che lo stesso sia filtrato una settimana prima della pubblicazione ufficiale. Non serve un dietrologo per capire che al regolamento è stato regalato un “giro di prova” prima del rilascio ufficiale, forse per insicurezze su alcuni passaggi.

Il leak alla stampa in effetti ha determinato diverse correzioni nel documento finale, che se confrontato con la bozza filtrata ufficiosamente ha abbandonato, ad esempio, la sezione che inseriva fra i sistemi AI ad alto rischio quelli che avrebbero potuto manipolare le persone per indurre “comportamenti, formazione di opinioni, o prendere decisioni a loro detrimento che altrimenti non avrebbero preso”. Una formulazione troppo ampia, che per come la vedo io metterebbe fuorilegge la metà dei messaggi pubblicitari, e che nel testo finale è stata depennata a favore di una nota che rimanda a regolamenti già esistenti.

regolamento AI

I commenti alla proposta di Regolamento AI in due cluster

Se analizziamo le reazioni alla proposta di regolamento possiamo dividere i commenti in due cluster: “troppa regolamentazione ucciderà l’AI” e “la direzione è buona, ma ci sono ancora molte scappatoie da chiudere”.

I primi li troviamo sia fra chi si occupa di ricerca e applicazione dell’intelligenza artificiale e teme l’arrivo di tante limitazioni, oltre che di una montagna di scartoffie in più da preparare, sia fra i commentatori stranieri che vedono l’Unione Europea darsi la proverbiale zappa sui piedi. La voce delle aziende può essere riassunta da Benjamin Mueller, della lobby Centre of Data Innovation, sostenuta fra gli altri da Amazon e Apple, che ha dichiarato che il regolamento “limiterà le aree in cui l’AI può essere realisticamente utilizzata”. Fra i grilli parlanti extra-UE potrei invece citare Jeremy Warner del Telegraph, che osserva come l’Unione Europea stia regolamentando il settore oltre ogni limite, esortando quindi il Regno Unito ad approfittarne regalandosi un’AI “amica della crescita”, che non vieta le tecnologie a priori ma che risolve gli eventuali problemi man mano che si creano.

Chi invece ritiene che le norme siano ancora troppo permissive, vuoi per possibili dimenticanze, vuoi per approcci e termini troppo ambigui, sono molte di quelle associazioni che spingono per una regolamentazione ancora più ferrea. Un esempio lo offre l’articolo 5.1.d (l’articolo 5 regola tutti sistemi AI considerati “proibiti”), che in quel punto elenca una serie di eccezioni consentite al riconoscimento facciale da remoto e in tempo reale. La seconda di tre eccezioni indica che il riconoscimento facciale sarebbe consentito in caso di “prevenzione di una minaccia specifica, sostanziale e imminente alla vita o alla sicurezza fisica delle persone fisiche o di un attacco terroristico.”

A screenshot of a computer Description automatically generated with low confidence

Figura 1: Art. 5.1.d (ii)

Algorithm Watch, nella sua analisi del testo, ritiene che questa formulazione lasci “un ampio potere discrezionale alle autorità”. Personalmente io non saprei come rendere meno discrezionale una situazione dove si presenta una minaccia alla sicurezza delle persone che sia allo stesso tempo 1) specifica, 2) sostanziale e 3) imminente. O un attacco terroristico. Sarò retrogrado, ma per me in queste situazioni molto specifiche le forze dell’ordine possono accendere tutte le telecamere che ritengono necessarie. Senza contare che il punto 5.3 indica che tali attività dovranno prima essere espressamente e preventivamente autorizzate da un giudice.

Ma su questo tema neanche il Garante della Privacy europeo è soddisfatto del testo a suo dire troppo permissivo. In un comunicato, Wojciech Wiewiórowski lamenta il fatto che l’Europa non abbia deciso di vietare tout-court il riconoscimento biometrico (fra cui spicca ovviamente il riconoscimento facciale) nei luoghi ad accesso pubblico, preferendo invece consentirlo anche se con regole molto stringenti. Secondo il Garante una moratoria sarebbe stata preferibile, dato che la tecnologia presenta rischi estremamente elevati di intrusione profonda e non democratica nella vita privata degli individui.

In effetti una stranezza del regolamento proibisce il riconoscimento biometrico a distanza “in tempo reale” (a parte le eccezioni che abbiamo visto), consentendo però quello “post facto”. Il che è assurdo: se io metto una serie di telecamere per riprendere un flusso di persone, poi esamino le registrazioni il giorno dopo cercando di identificare i volti di tutti i passanti, non è che tutti i rischi alla privacy miracolosamente spariscano solo perché il riconoscimento non è avvenuto in tempo reale. La scappatoia è stata subito notata da molti osservatori, ma non è chiaro se si sia trattata solo di una svista o della reale intenzione di limitare unicamente un’applicazione del riconoscimento facciale lasciando libere tutte le altre.

Una chiara svista sembra invece quella di apporre divieti al riconoscimento biometrico usato dalle forze dell’ordine dimenticandosi però di vietare quello usato da altri settori del governo e da aziende private, come hanno fatto notare molte associazioni, fra cui gli organizzatori dell’iniziativa “reclaim your face” che in un commento alla proposta di regolamento fanno notare l’incredibile dimenticanza.

regolamento AI

Conclusioni

Ma non ci sono solo critiche e proteste. Un effetto potenzialmente vantaggioso derivante dal semplice atto di regolamentare una materia così complessa, come fanno notare alcuni commentatori su Wired, è che l’Unione Europea ha rotto una membrana che sembrava impenetrabile, facendo sentire la sua voce in un settore tecnologico estremamente complicato e altamente dinamico. Entrando con determinazione in questo ambito ha reso più facile la vita dei legislatori di altri Paesi, anche fuori del continente, che potranno ora prendere ispirazione, adattare, regolamentare le attività potenzialmente nocive dell’intelligenza artificiale.

Oppure potranno lasciare che le regole europee “conquistino il mondo” come ha già fatto il GDPR. In molti hanno fatto notare, non ultimo l’Economist, che poiché il regolamento europeo si applicherà anche ad aziende non residenti nell’Unione, ma che producono o distribuiscono sistemi AI usati da cittadini dell’UE, questo determinerà la necessità per molte imprese di adattare le loro procedure o smettere di servire l’Europa. Il GDPR insegna che a prendere la seconda strada sono generalmente in pochi, e la conformità obtorto collo ai regolamenti europei crea una regolamentazione di fatto anche in quei Paesi dove era finora inesistente. Un’eventualità che tuttavia, come fa notare Lawfare, difficilmente si applicherà a Paesi con un settore AI già avanzato come gli Stati Uniti, che potranno sì collaborare con l’Europa su determinate aree di governance dell’intelligenza artificiale, ma che non si faranno certamente colonizzare dalle sue regole.

Video Commissione Europea

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati