istituzioni

AI Act: prima seduta per l’AI Board europeo



Indirizzo copiato

L’incontro inaugurale si è tenuto presso la Commissione Europea. Si è discusso del ruolo del Consiglio, delle strategie di supervisione e delle priorità della Commissione per l’attuazione. Un incontro successivo è previsto per l’autunno, dopo che l’AI Act sarà entrato in vigore

Pubblicato il 25 giu 2024



Commissione europea

Primo incontro dell’AI Board. L’incontro inaugurale si è tenuto il 19 giugno presso l’edificio della Commissione Europea, in previsione dell’entrata in vigore formale dell’AI Act prevista per i primi di agosto. L’appuntamento aveva lo scopo di gettare le basi per l’attuazione del Regolamento, concentrandosi sulla visione strategica, gli approcci di governance nazionale, i primi risultati e questioni organizzative come il mandato del Consiglio e la selezione della leadership.

Ruolo del Consiglio, strategie di supervisione e priorità della Commissione per l’attuazione

Tra i partecipanti alla riunione c’erano delegati di alto livello da tutti gli Stati membri dell’UE, rappresentanti della Commissione Europea e il Supervisore europeo per la Protezione dei Dati in veste di osservatore. Anche i membri EEA/EFTA Norvegia, Liechtenstein e Islanda hanno partecipato in qualità di osservatori. L’incontro ha sottolineato l’importanza di una collaborazione precoce sull’attuazione dell’AI Act.

Le discussioni hanno riguardato il ruolo del Consiglio, le strategie di supervisione e le priorità della Commissione per l’attuazione. Un incontro successivo è previsto per l’autunno, dopo che l’AI Act sarà entrato in vigore.

Le analisi

Requisito di trasparenza dei dati per l’AI generica

Zuzanna Warso e Paul Keller da Open Future insieme a Maximilian Gahntz da Mozilla hanno pubblicato una proposta per l’attuazione del requisito di trasparenza dei dati di addestramento dell’AI Act per l’AI generica (GPAI). L’articolo 53 1(d) del Regolamento richiede ai fornitori di modelli GPAI di pubblicare un riassunto dettagliato del contenuto di addestramento. I riassunti dovrebbero coprire le fonti e i set di dati, così come le spiegazioni narrative. Warso, Keller e Gahntz propongono un modello per questi riassunti, sottolineando l’ampiezza della portata e il dettaglio tecnico sufficiente a beneficiare sia gli esperti che i non addetti ai lavori. I riassunti dovrebbero elencare le principali raccolte di dati e fornire spiegazioni narrative delle altre fonti di dati, distinguendo chiaramente le ‘fonti di dati’ (origini) e i ‘set di dati’ (punti dati elaborati). Questo requisito di trasparenza mira a rafforzare la capacità degli individui e delle organizzazioni di esercitare i loro diritti, consentire la ricerca e lo scrutinio su uno degli input chiave nel processo di sviluppo dell’AI e migliorare la responsabilità in tutto il settore dell’AI.

Interpretazione dell’AI generica

Luca Bertuzzi, corrispondente senior sull’AI presso MLex, ha scritto un editoriale su come le normative per i modelli GPAI potrebbero influenzare la catena del valore. Bertuzzi afferma che le regole dei modelli GPAI erano destinate ad applicarsi a realtà come OpenAI, Anthropic e Mistral, ma il preambolo della legge suggerisce un ambito più ampio, estendendo gli obblighi a chiunque modifichi o affini i modelli GPAI, proporzionalmente al livello di modifica. Egli sostiene che le aziende europee non si aspettavano questa espansione dei doveri lungo la catena del valore. Aggiunge che le implicazioni per gli operatori a valle che modificano i modelli di ‘rischio sistemico’ rimangono poco chiare, in particolare per quanto riguarda i requisiti di conformità come gli esercizi di red teaming o i sistemi di mitigazione del rischio. Mentre i fornitori di modelli GPAI possono dimostrare la conformità attraverso codici e standard riconosciuti, non è certo se gli operatori a valle saranno coinvolti nello sviluppo di questi strumenti. L’Ufficio AI della Commissione Europea potrebbe avere difficoltà a monitorare tutti gli affinatori di modelli e quindi concentrarsi sui principali fornitori, indagando sull’intera catena del valore solo quando si presentano problemi. In alternativa, potrebbero esaminare campioni di modelli affinati e fare affidamento sul contributo della comunità scientifica per identificare potenziali rischi sociali.

Valutazione dei pro e contro

Daan Juijn, analista Emerging Tech Foresight, e Maria Koomen, responsabile Governance, entrambi presso ICFG, hanno chiesto su Tech Policy Press se l’AI Act sia un esempio normativo o un monito. Juijn e Koomen scrivono che i punti di forza chiave del Regolamento includono i seguenti:

1) il divieto di certi sistemi AI, come il punteggio di credito sociale, per prevenire l’erosione delle norme sociali;

2) l’imposizione di requisiti minimi per l’uso dell’AI in settori sensibili per prevenire un dispiegamento dannoso e promuovere lo sviluppo dell’AI centrato sull’uomo;

3) la regolamentazione dei modelli GPAI, riconoscendo il loro impatto diffuso e le limitazioni dei fornitori a valle;

4) l’adozione di un approccio pragmatico alla classificazione del rischio, in particolare per i modelli GPAI, utilizzando soglie di calcolo per differenziare i livelli di rischio.

Tuttavia, secondo gli autori, il Regolamento presenta anche molte lacune. Rischia di diventare inefficace a causa di regole poco chiare e capacità di applicazione insufficiente. Allo stesso modo, i requisiti per i modelli GPAI ad alto consumo computazionale presentano potenziali falle e potrebbero rapidamente diventare obsoleti. Per rendere il Regolamento resistente al futuro, suggeriscono che l’UE rediga regole più chiare, migliori le strategie di applicazione e includa ulteriori salvaguardie per i modelli GPAI della prossima generazione.

Aggiornamenti dalla stesura degli standard europei sull’AI

Il comitato tecnico CEN-CENELEC JTC21 sta avanzando nella stesura degli standard relativi all’AI Act. Il suo gruppo di lavoro consultivo strategico sta risolvendo i commenti sul documento “architettura degli standard”. Il gruppo di lavoro sugli aspetti operativi sta sviluppando nuovi elementi di lavoro sulla valutazione della conformità e sui sistemi di gestione della qualità. Stanno anche creando uno standard di gestione del rischio con un catalogo con fonti di rischio AI, le loro potenziali conseguenze e misure di gestione del rischio. Il gruppo di lavoro sugli aspetti ingegneristici sta lavorando su standard per la qualità e la governance dei set di dati, la gestione dei bias, l’elaborazione del linguaggio naturale e il logging. Il gruppo di lavoro sugli aspetti fondamentali e sociali sta sviluppando un quadro di affidabilità ed esplorando le valutazioni d’impatto per i diritti fondamentali. Gli stakeholder sono incoraggiati a fornire input al JTC21 sulle loro aspettative per un’AI affidabile.

Valutazione dei modelli GPAI

Marius Hobbhahn, CEO e co-fondatore di Apollo Research, ha pubblicato un editoriale su Euractiv discutendo come la governance dell’AI Act dei modelli GPAI con rischio sistemico si basa fortemente sulle valutazioni. Hobbhahn sostiene che maturare il settore delle valutazioni è cruciale per una attuazione efficace, poiché le valutazioni stanno diventando sempre più centrali nei quadri di governance proposti dai governi e dalle principali aziende di AI. Le valutazioni mirano a identificare le capacità e le propensioni dei sistemi AI per potenziali rischi e strategie di mitigazione prima del dispiegamento ad alto rischio. Il Regolamento richiede ai fornitori di modelli GPAI con rischio sistemico di condurre, superare e documentare le valutazioni, con la conformità raggiungibile attraverso l’adesione ai codici di pratica. Per sostenere la fiducia nell’ecosistema delle valutazioni, Hobbhahn raccomanda tre aree chiave su cui concentrarsi:

1) rafforzare il rigore scientifico del settore concentrandosi su ciò che le valutazioni possono e non possono raggiungere;

2) dotare l’Ufficio AI dell’UE di un adeguato controllo e adattabilità attraverso il panel scientifico, i codici di pratica e la segnalazione dei successi e degli insuccessi delle valutazioni;

3) pianificare per le sfide future aumentando gli standard di sicurezza, imponendo valutazioni indipendenti, supervisionando i valutatori e sviluppando valutazioni per le future capacità dell’AI.

Articoli correlati

Articolo 1 di 4