normative

AI Act: il Parlamento europeo approva la legge sull’intelligenza artificiale



Indirizzo copiato

Il 13 marzo 2024 i deputati hanno approvato il regolamento AI Act, frutto dell’accordo raggiunto con gli Stati membri nel dicembre 2023, con 523 voti favorevoli, 46 contrari e 49 astensioni. La legge deve ancora essere formalmente approvata dal Consiglio. Benifei: “Giornata storica”

Pubblicato il 13 mar 2024



AI Act

La legge dell’Unione Europea sull’intelligenza artificiale, AI Act, è stata approvata. Mercoledì 13 marzo il Parlamento ha votato il regolamento, frutto dell’accordo raggiunto con gli Stati membri nel dicembre 2023, con 523 voti favorevoli, 46 contrari e 49 astensioni.

“Oggi è una giornata storica”, ha affermato il relatore Brando Benifei nella conferenza stampa che ha preceduto la votazione. L’obiettivo dell’AI Act è quello di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di AI ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore. Il regolamento stabilisce obblighi per l’AI sulla base dei possibili rischi e del livello d’impatto.

Il regolamento deve ancora essere sottoposto alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura (procedura di rettifica). Inoltre, la legge deve ancora essere formalmente approvata dal Consiglio.

AI Act: le applicazioni vietate

Le nuove norme vietano alcune applicazioni di AI che minacciano i diritti dei cittadini. Tra queste, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.

AI Act: le eccezioni per le forze dell’ordine

In linea di principio, le forze dell’ordine non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge. L’identificazione “in tempo reale” potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. Gli usi ammessi includono, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. L’utilizzo di questi sistemi a posteriori è considerato ad alto rischio. Per questo, per potervi fare ricorso, l’autorizzazione giudiziaria dovrà essere collegata a un reato.

Ai Act: gli obblighi per i sistemi ad alto rischio

Sono previsti obblighi chiari anche per altri sistemi di AI ad alto rischio (che potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto). Rientrano in questa categoria gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, ecc.), alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni).

Per questi sistemi vige l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana. I cittadini avranno diritto a presentare reclami sui sistemi di AI e a ricevere spiegazioni sulle decisioni basate su sistemi di AI ad alto rischio che incidono sui loro diritti.

AI Act: gli obblighi di trasparenza

I sistemi di AI per finalità generali e i modelli su cui si basano dovranno soddisfare determinati requisiti di trasparenza e rispettare le norme UE sul diritto d’autore durante le fasi di addestramento dei vari modelli. I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti.

Inoltre, le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake”) dovranno essere chiaramente etichettati come tali.

Le misure a sostegno dell’innovazione e delle PMI

I paesi dell’UE dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (in inglese sandbox), in modo che PMI e start-up possano sviluppare sistemi di AI innovativi e addestrarli prima di immetterli sul mercato.

Benifei: “Siamo riusciti a mettere gli esseri umani e i valori europei al centro dello sviluppo dell’AI”

ai act
Brando Benifei

Durante il dibattito conclusivo di martedì, il correlatore della commissione per il mercato interno Brando Benifei (S&D, Italia) ha dichiarato: “Dopo due anni intensi di lavoro siamo finalmente riusciti ad approvare la prima legge vincolante al mondo sull’intelligenza artificiale, volta a ridurre i rischi e aumentare opportunità, combattere la discriminazione e portare trasparenza. Grazie al Parlamento europeo, le pratiche inaccettabili di AI saranno proibite in Europa. Tuteliamo i diritti dei lavoratori e dei cittadini. Dovremo ora accompagnare le aziende a conformarsi alle regole prima che entrino in vigore. Siamo riusciti a mettere gli esseri umani e i valori europei al centro dello sviluppo dell’AI”.

Tudorache: ” La legge sull’IA non è la fine del viaggio, ma piuttosto il punto di partenza per un nuovo modello di governance basato sulla tecnologia”

ai act
Dragos Tudorache

Il correlatore della commissione per le libertà civili Dragos Tudorache (Renew, Romania) ha dichiarato: “L’UE ha mantenuto la promessa. Abbiamo collegato per sempre al concetto di intelligenza artificiale ai valori fondamentali che costituiscono la base delle nostre società. Ci aspetta molto lavoro che va oltre la legge sull’intelligenza artificiale. L’intelligenza artificiale ci spingerà a ripensare il contratto sociale che sta alla base delle nostre democrazie. Insieme ai nostri modelli educativi, ai nostri mercati del lavoro, al modo in cui conduciamo le guerre. La legge sull’IA non è la fine del viaggio, ma piuttosto il punto di partenza per un nuovo modello di governance basato sulla tecnologia. Ora dobbiamo concentrarci per trasformarla da legge sui libri a realtà sul campo”.

Le prossime tappe dell’AI Act

Una volta che sarà approvata in via definitiva dal Consiglio Europeo, la legge sull’intelligenza artificiale entrerà in vigore 20 giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore, salvo per quanto riguarda:

  • i divieti relativi a pratiche vietate, che si applicheranno a partire da 6 mesi dopo l’entrata in vigore; i codici di buone pratiche (nove mesi dopo);
  • le norme sui sistemi di AI per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).

Video: la conferenza stampa precedente al voto sull’AI Act

Il regolamento prende le mosse dalla Conferenza sul futuro dell’Europa (COFE)

La legge sull’intelligenza artificiale risponde direttamente alle proposte dei cittadini che hanno partecipato alla Conferenza sul futuro dell’Europa (COFE), in particolare alla proposta 12(10) sul rafforzamento della competitività dell’UE nei settori strategici, alla proposta 33(5) su una società sicura e affidabile, tra cui la lotta alla disinformazione e la garanzia di un controllo umano di ultima istanza, alla proposta 35 sulla promozione dell’innovazione digitale, (3) garantendo la supervisione umana e (8) l’uso affidabile e responsabile dell’AI, stabilendo salvaguardie e garantendo la trasparenza, e alla proposta 37 (3) sull’utilizzo dell’AI e degli strumenti digitali per migliorare l’accesso dei cittadini alle informazioni, comprese le persone con disabilità.

Il dibattito in seduta plenaria

L’iter parlamentare

I commenti

Andrea De Micheli, Presidente di Web3 Alliance, consorzio italiano che riunisce i player del web 3.0:

ai act
Andrea De Micheli

Oggi abbiamo raggiunto un traguardo importante. L’approvazione dell’AI Act rappresenta, infatti, una conquista in tema di regolamentazione e un nuovo punto di partenza per il mercato dell’Intelligenza Artificiale. Con questo provvedimento l’Unione Europea, per prima, ha dimostrato il suo impegno a tutelare non solo i cittadini ma anche le piccole realtà imprenditoriali. In questo campo cruciale per il nostro futuro i più importanti interlocutori istituzionali, Stati Uniti e Cina, hanno sostenuto attivamente, con obiettivi differenti, la ricerca applicata e lo sviluppo di intelligenze artificiali proprietarie. All’Unione Europea va sicuramente riconosciuto il merito di avere definito per tempo le regole del gioco. Manca però una visione comune dei Membri volta allo sviluppo di una piattaforma europea di Intelligenza Artificiale, così come già accaduto con successo in passato a partire dalla creazione del World Wide Web fino ad arrivare al primato assoluto nell’aviazione civile con il progetto Airbus, senza considerare i traguardi raggiunti con il più grande acceleratore di particelle del Cern o i maggiori supercomputer oggi disponibili. Questi esempi sono la prova che l’Europa può oggi come in passato ancora scrivere pagine importanti di un futuro che deve appartenerle.
La sua pervasività si sta rivelando come l’agente di una nuova rivoluzione etica, culturale e industriale che modificherà profondamente la nostra società. È
importante quindi che le istituzioni riconoscano gli effetti che questo fenomeno porterà in futuro, creando e applicando norme in grado di governarlo ma allo stesso tempo incentivarne gli sviluppi e le applicazioni. Web3 Alliance è favorevole a questa legislazione perché permetterà la crescita sana e trasparente del mercato e la costruzione di un tessuto industriale competitivo e virtuoso; al contempo promuove la necessità di una politica comune di investimento sulla ricerca e sullo sviluppo di soluzioni, competenze e conoscenze volte a rendere indipendente il Mercato Europeo“.

Massimiliano Masnada, Partner dello studio legale internazionale Hogan Lovells:

ai act
Massimiliano Masnada

“L’approvazione definitiva dell’AI Act è un risultato straordinario ma adesso inizia una nuova sfida che riguarda quelli che il nuovo regolamento definisce i ‘modelli di fondazione’, particolarmente importanti nell’ambito dell’AI generativa. Un modello di fondazione è un sistema di AI cui possono ricorrere altri sviluppatori per elaborare nuovi sistemi di AI che utilizzano tale modello ‘software di base’ per il proprio sistema di AI. Possiamo immaginare questi modelli di fondazione come grandi libri contenenti conoscenze che gli altri sistemi di AI possono utilizzare per svolgere compiti intelligenti come capire il linguaggio, riconoscere immagini o prendere decisioni, senza dover essere istruiti da zero. I modelli di fondazione sono fondamentali per lo sviluppo dell’AI perché rappresentano una base di conoscenza condivisa che può essere utilizzata da programmatori dotati di meno risorse, che non hanno gli strumenti per sviluppare internamente un modello così approfondito. La creazione dei modelli di fondazione determina due problemi principali che, a mio avviso, dovranno essere subito affrontati: il primo, riguarda in cd. training degli algoritmi, ossia la qualità e quantità dei dati che servono affinché un algoritmo di base sia sufficientemente adeguato, soprattutto sotto il profilo dei bias e dei risultati prodotti in termini generativi; il secondo, riguarda gli investimenti e la possibilità di imprese, anche piccole a livello di start up di sviluppare modelli che siano utili e affidabili. Con riferimento al primo problema, occorre un coordinamento, auspicabilmente a livello europeo, tra le autorità regolatorie per tracciare linee guida che non privino gli algoritmi di AI della possibilità di accedere a quella qualità e quantità di dati sufficiente ad evitare risultati parziali, inaffidabili, quant’anche distorsivi e discriminatori. Con riferimento alla seconda questione, vedo la necessità di una politica industriale che favorisca gli investimenti sia a livello di grandi imprese che di PMI e di start up. Per addestrare gli algoritmi di AI servono infatti investimenti significativi in virtù, da un lato, della necessità di effettuare l’addestramento su enormi quantità di dati (ad oggi, le dimensioni di dati necessarie sono tali da aver spinto gli sviluppatori dei modelli di fondazione a ricorrere all’intero web, che è raccolto tramite attività di web scraping) e, dall’altro, della straordinaria potenza di calcolo necessaria ad elaborare un così ampio volume di dati. Per sviluppare l’AI bisogna avere fondamentalmente due cose: tecnologia adeguata e talenti. I talenti sicuramente non mancano in Italia. Per quanto riguarda la tecnologia, si consideri che una società, pubblica o privata, che voglia sviluppare software di base nell’AI ha bisogno di importanti risorse computazionali iniziali per comprare questo tempo di calcolo. Ad esempio, il Governo potrebbe aiutare le startup che vogliono sviluppare software specializzati per le nostre industrie creando un computing cluster che tutti possono utilizzare. Le startup potrebbero sfruttare il fatto che in Italia c’è uno dei supercomputer per il calcolo computazionale, il computer Leonardo di Bologna, acquistando in modo agevolato tempo di calcolo sul supercomputer e ripagando solo in parte l’investimento. Sono solo alcune idee che da più parti sono circolate, ma il dibattito si è appena aperto. E ora, con l’approvazione definitiva dell’AI Act, sarà ancora più importante accelerare i tempi. Il futuro è ora”.

È giusto regolamentare l’intelligenza artificiale. Ora Commissione europea e governi nazionali dovranno affrontare la questione di come fornire le risorse necessarie per applicare il nuovo regolamento affinché le misure non penalizzino le imprese europee”

Antonella Giachetti, presidente Aidda:
“Come donne imprenditrici crediamo che la regolamentazione dell’intelligenza artificiale sia necessaria per mantenerne l’efficacia e per controllarne gli effetti, ma dobbiamo porre attenzione a come questa regolamentazione viene messa in pratica. Un’eccessiva penalizzazione delle aziende europee rischia di essere inutile e di avere come unico risultato l’uscita dal mercato, come nel caso delle politiche di decarbonizzazione delle nostre imprese, costrette a seguire complicate regolamentazioni che le aziende di tutto il resto del mondo non hanno. Ricordiamo l’importanza che ogni approccio all’IA sia incentrato sull’uomo perché ci sono rischi pesanti che devono essere mitigati e le decisioni finali devono rimanere in mano all’uomo. La regolamentazione dell’IA è sicuramente un’opportunità per promuovere questa tecnologia, ma ormai viviamo in un mondo interconnesso e dovrà essere priorità adesso far progredire il più possibile i nostri principi e standard a livello internazionale”.

Umberto Bottesini, Co-founder e Managing Partner di BlackSheep MadTech Fund

ai act
Umberto Bottesini

“L’AI Act, recentemente adottato dall’Unione Europea, rappresenta una svolta fondamentale nella regolamentazione dell’intelligenza artificiale (IA), con implicazioni significative per le società europee impegnate nello sviluppo di questa tecnologia, in particolare i grandi modelli di linguaggio (LLM) proprietari.

La nuova normativa impone nuove responsabilità e requisiti sulle società che operano nel campo degli LLM, orientandole verso la conformità alle rigorose norme europee in materia di sicurezza, privacy e trasparenza, con la conseguenza di maggiori costi di compliance e una maggiore chiarezza nel ciclo di sviluppo e utilizzo di questi modelli. Tuttavia, penso che solo un esiguo numero di aziende avranno bisogno di modificare il proprio software a causa delle nuove norme, ma che le stesse potrebbero incorrere in costi di conformità più elevati per garantire l’aderenza alle regole.

Le società statunitensi del settore tecnologico, al contrario, potrebbero risentire in maniera più marcata dell’entrata in vigore dell’AI Act, perché meno abituate a impianti regolamentari stringenti come quelli europei. Ciò metterebbe a dura prova la loro capacità di operare sul mercato UE, dovendo rivedere significativamente le strategie e le pratiche aziendali.

Dall’altra parte, l’AI Act potrebbe invece rappresentare un’opportunità senza precedenti per le società europee, fornendo loro un quadro regolatorio chiaro e prevedibile per lo sviluppo e l’adozione di tecnologie IA. Questo contesto favorirebbe la crescita e l’innovazione del settore in Europa, permettendo alle società del vecchio continente di competere con maggiore efficacia a livello globale, assottigliando un gap, specialmente con gli USA, che fino a dieci anni sembrava intoccabile.

Inoltre, il sostegno del Fondo europeo per gli investimenti (FEI) unitamente ai gestori statali come Cassa Depositi e Prestiti (CDP) per l’Italia giocano un ruolo fondamentale nel potenziare le risorse dei singoli paesi europei nel settore dell’IA, promuovendo la creazione di un ecosistema di venture capital più solido e, allo stesso tempo, sostenendo lo sviluppo e l’adozione di tecnologie emergenti come gli LLM.

Il nuovo quadro normativo delineato dall’AI Act, e il prezioso sostegno finanziario degli investitori istituzionali pubblici, potrebbero quindi incidere in maniera determinante sulla competitività del mercato europeo, garantendo al contempo un utilizzo responsabile e sostenibile delle tecnologie IA.

Sfruttando al meglio questa nuova normativa e attraverso una collaborazione efficace tra pubblico e privato, l’Europa potrebbe emergere come leader mondiale nell’innovazione e nello sviluppo dell’IA.

Come le dinamiche di potere tra i due schieramenti stiano già mutando è visibile già dalla recente notizia dell’ingresso di Microsoft in Mistral AI, società francese sostenuta dal governo Macron, capace di sviluppare il primo LLM general purpose su piattaforma open source europeo, un caso abbastanza raro, che però sottolinea come gli USA stiano vedendo come meno sicuro il loro vantaggio tecnologico sul mercato.
È evidente che l’impegno dell’UE nello sviluppare normative, come GDPR, il Digital Service Act o l’AI Act, non derivino solo dalla volontà di tutelare i propri cittadini, ma anche da una strategia più ampia che mira a promuovere la parità tecnologica tra i due schieramenti. Leggi che a mio avviso, sono arrivate comunque troppo tardi, e che hanno consentito ai grandi player americani di poter crescere e prosperare in un quadro normativo (interno ed esterno) totalmente assente e con una cultura del capitale di rischio molto più sviluppata.

Tuttavia, il successo delle big tech statunitensi, così come il mantenimento dei talenti tecnologici europei in Europa, non dipende tanto da norme e regolamenti, ma principalmente da finanziamenti. L’Europa fatica a competere con gli Stati Uniti nella scena del venture capital e con i giganti delle Big Tech per l’assenza di investimenti coordinati. Si possono introdurre tutte le regolamentazioni desiderate, ma ciò che conta davvero per avere aziende competitive e di successo in Europa è l’accesso alle infrastrutture e agli investimenti necessari nel continente.

Questo sforzo è possibile solo se politica continentale e settore privato si uniscono per perseguire una politica industriale comune, creando opportunità per sbloccare i grandi capitali privati che nel vecchio continente sono destinati ai mercati finanziari piuttosto che all’economia reale. Un passo che il Governo italiano sembra avere colto”.

Articoli correlati

Articolo 1 di 4