AI Act, altro passo verso l’entrata in vigore. Le commissioni Mercato interno e Libertà civili del Parlamento Europeo hanno approvato, martedì 13 febbraio 2024, il risultato dei negoziati con gli Stati membri sulla legge sull’intelligenza artificiale, con 71 voti a favore, 8 contrari e 7 astenuti.
Questo regolamento mira a proteggere i diritti fondamentali, la democrazia, lo stato di diritto e la sostenibilità ambientale dall’AI ad alto rischio. Allo stesso tempo, punta a stimolare l’innovazione e ad affermare l’Europa come leader nel campo dell’AI. Le norme stabiliscono obblighi per l’intelligenza artificiale in base ai suoi rischi potenziali e al livello di impatto.
L’AI Act ha iniziato il suo percorso nell’aprile 2021 con la proposta della Commissione europea e poi del Consiglio e Parlamento per arrivare, l’8 dicembre 2023, a un accordo politico provvisorio, quindi al 21 gennaio 2024 con l’ultima bozza del testo.
I punti salienti dell’AI Act come approvato dal Parlamento Europeo
Applicazioni vietate
L’accordo vieta alcune applicazioni di AI che minacciano i diritti dei cittadini, tra cui:
- sistemi di categorizzazione biometrica basati su caratteristiche sensibili
- scraping non mirato di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per i database di riconoscimento facciale
- riconoscimento delle emozioni sul posto di lavoro e nelle scuole
- social scoring
- polizia predittiva basata esclusivamente sulla profilazione di una persona o sulla valutazione delle sue caratteristiche
- AI che manipola il comportamento umano o sfrutta le vulnerabilità delle persone.
Esenzioni per le forze dell’ordine
L’uso di sistemi di identificazione biometrica (RBI) da parte delle forze dell’ordine è vietato in linea di principio, tranne che in situazioni elencate in modo esaustivo e definite in modo ristretto. I sistemi di identificazione biometrica “in tempo reale” possono essere utilizzati solo con rigorose garanzie, ad esempio limitati nel tempo e nell’ambito geografico, previa autorizzazione giudiziaria o amministrativa.
Tali usi riguardano, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. Anche l’utilizzo di tali sistemi a posteriori (“RBI post-remoto”), considerato ad alto rischio, richiede un’autorizzazione giudiziaria e deve essere collegato a un reato.
Obblighi per i sistemi ad alto rischio
Sono stati concordati obblighi chiari anche per altri sistemi di AI ad alto rischio, che potrebbero avere un impatto significativo su salute, sicurezza, diritti fondamentali, ambiente, democrazia e stato di diritto. Tra gli usi ad alto rischio vi sono quelli nelle infrastrutture critiche, nell’istruzione e nella formazione professionale, nell’occupazione, nei servizi essenziali (ad esempio, sanità, banche), in alcuni sistemi di applicazione della legge, nella gestione della migrazione e delle frontiere, nella giustizia e nei processi democratici (ad esempio, l’influenza sulle elezioni). I cittadini avranno il diritto di presentare reclami sui sistemi di AI e di ricevere spiegazioni sulle decisioni basate su sistemi di AI ad alto rischio che riguardano i loro diritti.
Requisiti di trasparenza
I sistemi di AI per scopi generali (GPAI) e i modelli su cui si basano devono soddisfare determinati requisiti di trasparenza e rispettare la normativa UE sul copyright durante la loro formazione. I modelli GPAI più potenti che potrebbero comportare rischi sistemici dovranno soddisfare ulteriori requisiti, tra cui l’esecuzione della valutazione del modello, la valutazione del rischio e la segnalazione degli incidenti. Inoltre, i contenuti artificiali o manipolati di immagini, audio o video (deepfake) devono essere chiaramente etichettati come tali.
Misure a sostegno dell’innovazione e delle PMI a livello nazionale saranno istituite sandbox normative e test reali, che offriranno alle PMI e alle start-up l’opportunità di sviluppare e addestrare l’AI innovativa prima di immetterla sul mercato.
Le prossime tappe dell’AI Act
Il testo attende l’adozione formale in una prossima sessione plenaria del Parlamento e l’approvazione finale del Consiglio. Sarà pienamente applicabile 24 mesi dopo l’entrata in vigore, ad eccezione di:
- divieti di pratiche vietate, che si applicheranno 6 mesi dopo l’entrata in vigore;
- codici di condotta (9 mesi dopo l’entrata in vigore);
- norme generali sull’AI, compresa la governance (12 mesi dopo l’entrata in vigore);
- obblighi per i sistemi ad alto rischio (36 mesi).
Commenti
Bernd Greifeneder, CTO di Dynatrace, ha dichiarato: “Ora che i legislatori hanno manifestato il loro sostegno alla legge europea sull’intelligenza artificiale, è quasi inevitabile che diventi legge. Molte organizzazioni si chiederanno cosa fare per prepararsi durante il periodo di transizione di due anni che probabilmente inizierà nei prossimi mesi. In base alle linee guida stabilite, sembra che l’UE abbia, comprensibilmente, focalizzato la propria regolamentazione sulla riduzione dei rischi geopolitici dell’AI, ma non dei rischi commerciali. Di conseguenza, la maggior parte delle organizzazioni si troverà probabilmente a utilizzare quelli che l’UE definisce modelli di AI ‘a rischio minimo o nullo’. Questi modelli non ricadono direttamente sotto l’influenza dell’AI Act, ma l’UE sta incoraggiando le organizzazioni a impegnarsi in codici di condotta volontari per gestire meglio il rischio. È fondamentale che prendano sul serio questo consiglio, altrimenti le organizzazioni potrebbero scoprire che, pur essendo ‘conformi’, si stanno esponendo a rischi”.
Tudorache: “nessuna tensione fra protezione e innovazione”
Al World AI Cannes Festival, Dragoș Tudorache, europarlamentare rumeno e uno dei correlatori della legge, ha affermato che la sfida consiste nel garantire che i Paesi membri comprendano “l’impostazione, la mentalità e lo spirito” di ciò che si vuole ottenere con il regolamento.
Tudorache ha dichiarato di essere “abbastanza soddisfatto” del raggiungimento dell’unanimità e ha confermato che la legge si sta ora dirigendo verso le ultime fasi di esame da parte delle commissioni prima del voto finale a marzo o aprile, “a seconda di quando saranno disponibili le traduzioni”.
La legge è stata un punto di contesa e di negoziazione sin dalla sua prima proposta nel 2021. Lo scorso luglio, più di 150 aziende europee di primo piano hanno firmato una lettera aperta all’UE in cui esprimevano “serie preoccupazioni” riguardo alla legge sull’intelligenza artificiale. Secondo le aziende, la legge “metterebbe a repentaglio la competitività e la sovranità tecnologica dell’Europa senza affrontare efficacemente le sfide che abbiamo e avremo di fronte”.
Alcuni oratori a Cannes hanno fatto eco a questo sentimento, affermando che potrebbe soffocare l’innovazione. Tudorache ha però respinto questa tesi, affermando che “non c’è alcuna tensione tra protezione e innovazione”.
“Nella progettazione del testo abbiamo deliberatamente creato un equilibrio tra i due obiettivi. Non è un gioco a somma zero. In effetti, entrambi possono essere raggiunti senza pestarsi i piedi a vicenda”.
Tudorache ha affermato che sono state messe in atto le giuste salvaguardie e guardrail per garantire i diritti degli individui e delle imprese. Ha detto che la legge va a vantaggio delle imprese “perché le imprese hanno bisogno della fiducia dei cittadini”.
“Ha bisogno della fiducia della società per incoraggiare l’adozione, affinché la trasformazione avvenga effettivamente nelle imprese”. Tudorache ha affermato che fin dall’inizio sono stati messi in atto degli “incentivi” per garantire la disponibilità di esenzioni per lo sviluppo open source e di norme speciali per le PMI.
“Dovevamo assicurarci che questo non fosse un ostacolo al business, al contrario, ma che creasse il giusto contesto per la crescita del business, per la creatività… e sono convinto che in realtà l’equilibrio ci sia”.
Una legge sull’AI per l’informatica quantistica
A Tudorache è stato chiesto se l’UE intenda creare una legislazione simile per l’informatica quantistica. La risposta è stata: “Forse, ma oserei dire di no. Per come la vedo io, è più che altro la base per un’AI ancora più veloce, più intelligente, ancora più incredibilmente intelligente. Ciò che è mancato a un’AI per molto tempo prima che potesse raggiungere lo stadio in cui si trova oggi e il motivo per cui è emersa come è oggi, in particolare i modelli di fondazione, è perché il calcolo si è spostato al punto in cui si trova oggi”.
Tudorache ha affermato che la legge sull’AI dovrà essere “mantenuta in sincronia” con i crescenti livelli di calcolo, in particolare per quanto riguarda i modelli di fondazione, e se le potenze quantistiche aumenteranno, sarà necessario coprirle. “A meno che l’informatica quantistica non porti qualcosa di nuovo rispetto a ciò che possiamo prevedere oggi, la mia risposta sarebbe: no, non ci sarà una legislazione speciale per la quantistica. Ma dovremo adattare costantemente la legge sull’AI e questa possibilità è prevista nel testo”.