AI Act: come è noto, il Regolamento europeo sull’intelligenza artificiale stato adottato dal Consiglio dell’UE il 21 maggio 2024. L’AI Act mira a standardizzare le regole sull’intelligenza artificiale, ponendo potenzialmente un benchmark globale per la sua regolamentazione. Il suo obiettivo primario è promuovere lo sviluppo e l’adozione di sistemi di intelligenza artificiale sicuri e affidabili all’interno del mercato unico dell’UE, garantendo il rispetto dei diritti fondamentali e allo stesso tempo incentivando gli investimenti e l’innovazione. Tuttavia, l’Act esenta alcune aree come le applicazioni militari e difensive, e i fini di ricerca. Ecco le opinioni di alcuni osservatori privilegiati.
Idee per una governance robusta
Gli accademici Claudio Novelli, Philipp Hacker, Jessica Morley, Jarle Trondal e Luciano Floridi suggeriscono diversi miglioramenti alla governance dell’AI Act. In primo luogo, propongono linee guida più chiare per la struttura dell’AI Office e il processo di selezione degli esperti. In secondo luogo, sostengono la fusione del forum e del panel in un unico organismo per rafforzare il processo deliberativo ed evitare duplicazioni. In terzo luogo, sottolineano la necessità di coordinamento tra le entità dell’UE attraverso un Hub di Coordinamento AI per gestire interessi contrastanti. In quarto luogo, evidenziano la necessità che il Consiglio AI affronti le decisioni nazionali per garantire regolamentazioni coerenti e prevenire abusi. Infine, raccomandano l’istituzione di un’unità all’interno dell’AI Office per apprendere e affinare le pratiche di intelligenza artificiale attraverso la collaborazione con i centri di competenza degli Stati membri.
Mathieu Michel, Segretario di Stato belga per la digitalizzazione
Mathieu Michel, Segretario di Stato belga per la digitalizzazione, semplificazione amministrativa, protezione della privacy e regolamentazione edilizia sottolinea l’enfasi dell’AI Act sulla fiducia, trasparenza e responsabilità assicurando che questa tecnologia in rapida evoluzione possa prosperare e stimolare l’innovazione europea. Una volta firmato dai presidenti del Parlamento europeo e del Consiglio, sarà pubblicato nella Gazzetta Ufficiale dell’UE entrando in vigore venti giorni dopo con un periodo di implementazione di due anni (con alcune eccezioni).
Analisi aree di convergenza e divergenza tra UE e USA
Benjamin Cedric Larsen, responsabile del progetto AI & Machine Learning presso il World Economic Forum, e Sabrina Küspert, funzionaria politica presso l’Ufficio europeo per l’IA, Commissione europea, hanno pubblicato una panoramica sul sito web della Brookings Institution, evidenziando sia le somiglianze che le differenze tra gli approcci dell’UE e degli USA alla regolamentazione dell’intelligenza artificiale a uso generale.
Mentre l’ordine esecutivo statunitense si concentra su linee guida per le agenzie federali per modellare le pratiche industriali e i requisiti di reporting nell’ambito del Defense Production Act, l’AI Act regola direttamente i modelli di intelligenza artificiale a uso generale all’interno dell’UE con regole vincolanti. L’ordine esecutivo può essere modificato e revocato, mentre l’AI Act è una struttura di governance duratura. La soglia dell’UE per i modelli di intelligenza artificiale a uso generale regolamentati è inferiore a quella degli Stati Uniti, potenzialmente includendo un range più ampio di modelli.
L’approccio statunitense si concentra sui rischi e potenziali dual-use dell’intelligenza artificiale, ma l’Act dell’UE adotta una visione più ampia dei rischi sistemici e include la discriminazione su larga scala, incidenti gravi e conseguenze negative sui diritti umani. Entrambi i quadri normativi concordano sulla necessità di documentazione, valutazione dei modelli e requisiti di cybersecurity. L’influenza globale dell’AI Act potrebbe essere paragonabile a quella del GDPR a causa dell’importanza del mercato europeo.
Al contrario, l’ordine statunitense stabilisce principalmente una politica interna con influenza globale indiretta. Entrambe le entità, insieme ad altri paesi del G7, si sono impegnate a creare un codice di condotta non vincolante per l’intelligenza artificiale, segnalando una maggiore collaborazione sulla politica dell’intelligenza artificiale.
Eccezioni per l’intelligenza artificiale open-source
Gli avvocati del team Orrick’s AI, Julia Apostle, Sarah Schaedler, Shaya Afshar e Daniel Healow, hanno scritto una panoramica delle eccezioni nell’AI Act per i sistemi di intelligenza artificiale rilasciati sotto licenze libere e open-source, che escludono quelli ad alto rischio o che interagiscono direttamente con gli individui. I modelli di intelligenza artificiale a uso generale possono qualificarsi per un’eccezione limitata open-source se i fornitori consentono l’accesso, l’utilizzo, la modifica e la distribuzione dei parametri del modello. Tuttavia, non devono presentare rischi sistemici.
I vantaggi dell’eccezione includono l’esenzione dagli obblighi di trasparenza, ma i fornitori devono condividere dettagliati riassunti dei contenuti di formazione e rispettare la legge sul diritto d’autore dell’UE. Gli autori affermano che quando si contempla una strategia per l’intelligenza artificiale open-source, sviluppatori, fornitori e implementatori dovrebbero considerare i tipi di tecnologie di intelligenza artificiale utilizzate, i pro e i contro della licenza sotto licenze open-source e le salvaguardie necessarie quando si utilizzano tecnologie di intelligenza artificiale open-source.
Focus sulla biometria
David J. Oberly, consulente legale presso Baker Donelson’s Law Practice, ha scritto che l’AI Act impone regolamentazioni severe sui sistemi biometrici, vieta certi casi d’uso ed estende la sua portata extraterritoriale alle aziende al di fuori dell’UE. Oberly afferma che le tecnologie biometriche come l’identificazione, la verifica e la categorizzazione sono direttamente regolamentate, mentre ci sono divieti su sistemi relativi ad attributi personali sensibili, riconoscimento delle emozioni nei luoghi di lavoro e nelle scuole, sistemi di intelligenza artificiale che espandono i database di riconoscimento facciale e identificazione in tempo reale negli spazi pubblici. Le classificazioni ad alto rischio e trasparenza impongono obblighi aggiuntivi, tra cui avvisi visibili per i soggetti dei dati e marcature degli output per contenuti sintetici. Consiglia alle aziende coinvolte nei sistemi biometrici di lavorare proattivamente verso la conformità con l’Act, con diverse raccomandazioni nel post.
Visione per l’AI Office
Philipp Hacker, Sebastian Hallensleben e Kai Zenner hanno pubblicato un editoriale su Euractiv sostenendo che l’implementazione della prima legislazione completa sull’intelligenza artificiale al mondo richiede una leadership solida e una struttura innovativa. Hacker, Hallensleben e Zenner affermano che l’AI Office, di fronte a numerose sfide tra cui scadenze strette e budget limitati, deve essere progettato con una struttura chiara e strategica per adempiere efficacemente alla sua missione. Propongono una struttura composta da cinque unità specializzate:
- Trust and Safety (Fiducia e Sicurezza)
- Innovation Excellence (Eccellenza dell’Innovazione)
- International Cooperation (Cooperazione Internazionale)
- Research & Foresight (Ricerca & Previsione)
- Technical Support (Supporto Tecnico).
Inoltre, attrarre e trattenere talenti di alto livello, anche al di fuori delle istituzioni dell’UE, è fondamentale, necessitando ambienti di lavoro attraenti e accordi flessibili. La leadership dovrebbe combinare la conoscenza istituzionale con l’esperienza in intelligenza artificiale, integrata da consulenti esterni. I valori operativi dovrebbero dare priorità all’agilità, alla minima burocrazia e all’autonomia, similmente alle start-up di successo. Sottolineano anche l’importanza di garantire hardware e software all’avanguardia attraverso metodi di approvvigionamento innovativi. Infine, gli autori chiedono trasparenza e accessibilità per favorire interazioni regolari con vari stakeholder, tra cui cittadini dell’UE, società civile, accademia e PMI.