Dopo la pubblicazione sulla Gazzetta Ufficiale dell’Unione Europea del Regolamento sull’intelligenza artificiale, che entrerà in vigore il 1° agosto 2024, il Parlamento Europeo sta valutando la creazione di un gruppo di monitoraggio per la sua attuazione, secondo quanto riportato da Eliza Gkritsi e Théophane Hartmann di Euractiv.
I deputati hanno espresso preoccupazioni riguardo all’approccio della Commissione Europea verso compiti chiave. Brando Benifei, già relatore sul Regolamento, ha annunciato piani per istituire formalmente un gruppo di monitoraggio parlamentare, nel quale prevede di svolgere un ruolo di primo piano. Benifei ha avvertito dei rischi potenziali qualora la Commissione non attui adeguatamente il Regolamento, in particolare per quanto riguarda le disposizioni sulla trasparenza.
Alcuni MEP hanno sollecitato la Commissione a coinvolgere la società civile nello sviluppo dei codici di condotta per l’AI generica, anziché permettere alle aziende di redigerli autonomamente, ricevendo assicurazioni che quest’ultima sarà pienamente coinvolta nella stesura. Benifei spingerà affinché esperti indipendenti presiedano i gruppi di lavoro all’interno dell’Ufficio AI, limitando l’influenza delle grandi aziende.
Il dialogo tra US AI Safety Institute e Ufficio Europeo per l’AI
L’11 luglio 2024, funzionari statunitensi ed europei hanno avviato un dialogo tecnico tra l’Ufficio Europeo per l’AI e l’US AI Safety Institute a Washington D.C. Questo dialogo mira a intensificare la collaborazione bilaterale sull’intelligenza artificiale e a promuovere lo scambio di informazioni scientifiche. La discussione, guidata dalla direttrice dell’US AI Safety Institute, Elizabeth Kelly, e dal direttore dell’Ufficio Europeo per l’AI, Lucilla Sioli, si è concentrata su tre temi principali: watermarking e autenticazione dei contenuti sintetici, infrastrutture informatiche governative e AI per il bene sociale, in particolare la modellazione meteorologica.
Il dialogo ha incluso sessioni con accademici, rappresentanti della società civile ed esperti governativi provenienti da vari dipartimenti e agenzie. Entrambe le istituzioni hanno espresso interesse nell’esplorare le migliori pratiche per il watermarking e la provenienza dei contenuti, promuovendo questi strumenti e avanzando lo scambio scientifico sulla sicurezza dell’AI. Hanno ribadito la loro ambizione condivisa di sviluppare una rete internazionale per avanzare nella scienza della sicurezza dell’AI, come discusso al Summit sull’AI di Seoul.
Meta ha problemi con le leggi dell’UE
Come riportato da Ina Fried, corrispondente capo per la tecnologia di Axios, Meta ha annunciato che non accetterà il suo prossimo modello di intelligenza artificiale multimodale e i modelli futuri dai clienti dell’UE a causa dell’incertezza normativa. L’azienda cita le preoccupazioni legate alla conformità con il GDPR (ma non con l’AI Act) mentre utilizza i dati degli utenti europei per addestrare i modelli. Meta aveva precedentemente notificato a oltre 2 miliardi di utenti dell’UE il suo piano di utilizzare i post pubblici per l’addestramento dei modelli, offrendo un’opzione di opt-out. Nonostante abbia informato in anticipo le autorità di regolamentazione dell’UE, Meta sostiene di aver ricevuto un feedback minimo. L’azienda rilascerà comunque una versione più grande e solo testuale di Llama 3 nell’UE.
Tuttavia, il rifiuto della versione multimodale potrebbe impedire alle aziende europee di utilizzare questi modelli, anche con licenza aperta, e potrebbe avere ripercussioni sulle aziende extraeuropee che offrono servizi in Europa che li utilizzano.
Meta prevede di rilasciare il modello multimodale nel Regno Unito, dove esistono leggi simili sulla protezione dei dati, adducendo poche preoccupazioni di carattere normativo.
Il ruolo delle autorità di protezione dei dati nell’AI Act
Il Comitato europeo per la protezione dei dati (EDPB) ha rilasciato una dichiarazione in cui sottolinea che la legge e la legislazione europea in materia di protezione dei dati devono essere considerate complementari e rafforzarsi reciprocamente. L’EDPB sottolinea i potenziali problemi di supervisione e coordinamento derivanti dalla designazione di autorità nazionali competenti in settori strettamente legati alla protezione dei dati personali.
La dichiarazione raccomanda un ruolo di primo piano per le autorità di protezione dei dati (DPA) nel quadro di applicazione emergente, citando la loro esperienza e competenza nelle questioni legate all’IA. L’EDPB suggerisce che la designazione delle autorità di protezione dei dati come autorità di vigilanza del mercato (MSA) sarebbe vantaggiosa per le parti interessate, in quanto fornirebbe un unico punto di contatto. L’EDPB raccomanda che gli Stati membri designino le autorità di protezione dei dati come autorità di vigilanza del mercato per i sistemi di IA ad alto rischio di cui all’articolo 74, paragrafo 8, della legge.
Responsabilità dell’Ufficio AI
Kai Zenner, capo ufficio e consigliere per le politiche digitali dell’eurodeputato Axel Voss al Parlamento europeo, ha pubblicato un post sul blog in cui evidenzia le 130 responsabilità assegnate all’Ufficio AI dalla legge sull’AI. Tali responsabilità sono suddivise in quattro categorie principali:
1) 39 compiti per istituire un sistema di governance dell’AI, da attuare tra il 21 febbraio 2024 e il 2 agosto 2026;
2) 39 atti di legislazione secondaria, tra cui atti delegati, atti di esecuzione, linee guida, modelli, codici di pratica, codici di condotta e una richiesta di standardizzazione – alcuni dei quali hanno scadenze precise, mentre altri sono a discrezione della Commissione;
3) 34 diverse categorie di attività di applicazione a livello dell’UE, alcune delle quali iniziano il 2 febbraio 2025;
4) 18 compiti per la valutazione ex post della legge, da svolgere tra il 2025 e il 2031. Questo elenco completo mira in particolare a sostenere la società civile, gli accademici e le PMI che non dispongono delle risorse necessarie per monitorare l’intera attuazione della legge.