Normative

AI ACT: ecco cosa prevede l’ultima bozza del testo di legge



Indirizzo copiato

La legge europea sull’intelligenza artificiale procede nel suo percorso di normazione. Analizziamo cosa cambia rispetto al penultimo testo dello scorso dicembre 2023 in occasione dell’accordo provvisorio raggiunto. Ecco cosa contiene nei suoi punti fondamentali

Pubblicato il 29 gen 2024

Chiara Ponti

Avvocato, Legal & Compliance e nuove tecnologie



AI Act

Il primo Regolamento europeo sull’intelligenza artificiale, meglio noto come AI ACT, dovrebbe essere definitivamente approvato entro aprile di quest’anno, andando al voto del Consiglio europeo a febbraio, per poi passare tra marzo e aprile in Parlamento. L’obiettivo, forse virtuoso è quello di chiudere l’approvazione prima delle prossime elezioni.

Concettualmente, l’AI ACT intende definire i limiti nell’utilizzo dell’intelligenza artificiale, allo scopo di regolare la diffusione nonché prevenirne eventuali problematiche specie quelle derivanti da una mala gestio delle tecnologie emergenti. In breve, un modello virtuoso che potrebbe fare scuola nel resto del mondo. Vediamo come cambia.

AI ACT: l’ultima bozza

Non manca molto all’approvazione del Regolamento europeo sull’intelligenza artificiale. Così è trapelata la notizia dell’ultima tappa di un percorso iniziato nell’aprile 2021 con la proposta della Commissione europea e poi del Consiglio e Parlamento per arrivare, nella notte del 8 dicembre 2023 all’accordo politico provvisorio, e quindi al 21 gennaio 2024 con l’ultima bozza del testo. Vediamo cosa cambia anche alla luce dei mandati (del 20 giugno 2023).

AI Act
Credit: Consiliium Europa

Cosa è cambiato: il lavoro dietro le quinte

Dopo l’intesa raggiunta, ecco che sono iniziati i lavori dietro le quinte. L’attenzione è quasi tutta incentrata nel dare omogeneità al testo in vista dell’imprimatur finale che attendiamo a breve.

Il testo risulta composto da oltre un’ottantina di articoli, 85 per l’esattezza, e quasi una decina di allegati, 9 per precisione. È confermato lo strumento legislativo del “Regolamento” direttamente applicabile senza che i singoli Stati membri lo debbano recepire con altra legge (come per una direttiva).

Confermata poi l’impostazione architetturale dei rischi suddivisi nelle quattro categorie: “minimi, limitati, alti, inaccettabili”, seguendo questa logica: tanto maggiore sarà il rischio, quanto più elevate saranno le responsabilità, e non di meno rigorosi i paletti per chi sviluppa o adopera sistemi di AI.

Definizione di AI ed esclusioni

Partiamo comunque dalle definizioni. Poiché l’AI Act intende disciplinare lo sviluppo, l’immissione sul mercato e l’utilizzo dei “sistemi di IA”, è fondamentale definire bene cosa si intenda per intelligenza artificiale. Sul punto, occorre rifarsi ai principi dell’OCSE al riguardo, i quali promuovono un uso dell’IA innovativo, affidabile nel pieno del rispetto dei diritti umani e i valori democratici. Quindi non più il ricorso a un tassativo elenco di tecnologie, come auspicava la Commissione.

Quanto all’esclusioni dal perimetro definitorio il Regolamento, avendo una portata extraterritoriale, si dovrà applicare non solo a fornitori, importatori e distributori, ma anche a chi utilizza un’AI nella propria attività professionale. Naturalmente, non troverà applicazione per tutti quei settori extra UE.

Usi vietati

Proseguiamo con gli usi vietati. Seguendo l’approccio risk based, l’AI Act fa un elenco di pratiche proibite in Europa. Per esempio, sono tali le “tecniche di manipolazione cognitivo comportamentale, il riconoscimento delle emozioni nei luoghi di lavoro o a scuola, il social scoring e la polizia predittiva”.

Sono invece ammessi sistemi di analisi del rischio che non profilano individui, come ad esempio quelli atti a smascherare transazioni sospette o che tracciano rotte del narcotraffico, grazie allo storico conservato nei database.

Risulta vietato anche l’uso dei sistemi d’identificazione biometrica remota in tempo reale e negli spazi pubblici: il nervo scoperto su cui il dibattito da anni si fa acceso.

Tale pratica è semmai concessa in tre circostanze soltanto:

  1. la ricerca di vittime di alcuni gravi delitti o di persone scomparse;
  2. la prevenzione di minacce alla sicurezza/incolumità pubblica o di attacchi terroristici;
  3. la localizzazione o identificazione dei sospettati per la commissione di certi reati.

Il riconoscimento facciale e biometrico

Il tema del riconoscimento facciale e biometrico in tempo reale è quindi un punto nevralgico, e l’utilizzo dei sistemi a ciò finalizzati resta un’applicazione proibita, in quanto come si legge nelle premesse dell’ultimo testo in bozza, può portare “a risultati marcati da pregiudizi e provocare effetti discriminatori”, salvo quelle tre situazioni sopra elencate nelle quali il ricorso al riconoscimento facciale “è necessario per raggiungere un sostanziale pubblico interesse, la cui importanza supera i rischi”.

Ne consegue che tale pratica (id est: il riconoscimento biometrico da remoto in tempo reale) deve essere utilizzata “solo per confermare l’identità” dell’individuo individuato come target, dopo aver fatto un’analisi del rischio che si corre nell’evitare di ricorrere a questa tecnologia in confronto ai risultati consentiti dal suo impiego e per lo stretto necessario, “nello spazio e nel tempo”.

Tuttavia, si può fare uso di questi strumenti solo ad autorizzazione preventiva ottenuta da un’Autorità competente, sia essa amministrativa o giudiziaria, salvo i casi di urgenza in cui si potrà procedere comunque (nell’immediatezza), producendo in ogni caso entro non oltre le 24 ore successive giusta autorizzazione. In caso contrario ovvero in diniego, ogni operazione di questa fatta dovrà essere subito sospesa, cancellando tutti i dati raccolti.

Obblighi per i sistemi ad alto rischio

Il Regolamento intende poi disciplinare in maniera molto stretta e rigorosa le cd. “applicazioni di AI ad alto rischio”, come il riconoscimento delle emozioni, il monitoraggio degli studenti durante gli esami o la selezione del personale (algoritmi per valutare curriculum o distribuire compiti e impieghi), per smascherare frodi finanziarie o stabilire il grado di rischio in caso di assicurazione, e via a seguire.

In altri termini, tutti i sistemi ad alto rischio che mettono a repentaglio la salute, sicurezza o più in generale, i diritti fondamentali dei cittadini, rientrano nell’elenco di quelli assolutamente vietati.

I sistemi ad alto rischio devono poi rispettare tutta una serie di requisiti, come ad esempio la data governance, la privacy, la cybersecurity.

Occorreranno poi valutazioni/visti di conformità, ottenuti i quali si potrà apporre la marcatura e quindi potrà avvenire la registrazione.

Ancora, chi sviluppa questi sistemi, è tenuto a rispettare in primis la privacy gestendo in modo trasparente i dati, registrando correttamente e automaticamente i log che saranno da conservare per tutto il ciclo di vita dell’algoritmo, affinché si possa risalire a eventuali situazioni di rischio sin dalle origini.

Gli sviluppatori dei sistemi ad alto rischio, per parte loro, dovranno comunicare il livello di accuratezza dell’AI, ivi comprese le “metriche” stabilite dalla Commissione, in termini di robustezza e sicurezza informatica. Il tutto sempre e ancora per mano e verifica dell’uomo.

Sistemi di AI generativa e finalità generali

Il testo poi intende regolamentare i “sistemi di AI per uso generale” (general purpose AI model) in grado cioè di svolgere svariati compiti come, ad esempio, creare un’immagine o riprodurre un testo, grazie alla mole di dati non categorizzati immessi, per esempio, nei chatbot (ChatGPT, Google Bard, ecc.).

Di qui, l’importanza che i contenuti generati da una macchina siano riconoscibili come prodotti da un’AI dal momento che un utente deve sapere con “chi” sta interagendo e deve essere messo nelle condizioni di poter riconoscere contenuti falsi/fake news deep-fake, che andranno etichettati in quanto tali grazie a sistemi come il watermarking, a meno che l’uso di questi serva unicamente a perseguire condotte penalmente rilevanti.

Perciò il ddl in parola intende stabilire una soglia identificante i sistemi ad alto rischio/impatto il cui valore dev’essere “un potere di calcolo pari a 10^25 FLOPs (floating point operations per second, un’unità di misura della capacità computazionale)”. Qualora dovesse superare tale soglia, ecco che si sarà “a rischio sistemico”.

Supporto all’innovazione

Per creare un equilibrio tra protezione e sostegno al progresso, l’AI Act riserva poi una serie di agevolazioni a startup e PMI, introducendo strumenti come gli spazi di sperimentazione normativa e i codici di condotta.

L’AI d’altra parte è un tema di frontiera con il quale istituzioni e organizzazioni si confronteranno nel prossimo futuro, e con tempismo la ISO ha già pubblicato uno standard sul tema. Ci riferiamo al documento del 18 dicembre 2023, la ISO/IEC 42001:2023 – Information Technology – Artificial Intelligence – Management System, con la precipua finalità di “specificare i requisiti per stabilire, implementare, mantenere e migliorare continuamente il sistema di gestione dell’intelligenza artificiale (AIMS) di un’organizzazione. Il sistema è sviluppato per soggetti che forniscono o utilizzano prodotti o servizi basati sull’AI assicurando uno sviluppo e uso responsabile di tali sistemi”. Insomma, un work in progress importante, laddove il supporto all’innovazione è, e dev’esserlo, in prima linea.

Autorità, uffici, controllo e sanzioni

Ultimo punto, per il momento, e qui degno di nota, concerne l’apparato burocratico e sanzionatorio. Intendiamoci meglio, andando per gradi.

Abbiamo capito che l’AI Act intende, tra gli altri, delegare altresì una serie di controlli alle Autorità locali che, nei due anni successivi all’entrata in vigore, dovranno istituire una sandbox regolatoria almeno, a livello nazionale. In pratica, andrà previsto uno “schema che consenta di effettuare test in sicurezza, in deroga alla legge, per non soffocare l’innovazione a causa dei troppi obblighi da rispettare e sostenere l’addestramento di algoritmi, anche con test condotti nel mondo reale”.

La Commissione dovrà avere un Consiglio dell’AI. Il Garante europeo dei dati personali sarà invitato quale “osservatore”, così come l’Ufficio dell’AI sarà collocato sotto la Direzione generale Connect. Il Consiglio sarà così strutturato: due sottogruppi, l’uno deputato alla sorveglianza del mercato e l’altro alle notifiche delle Autorità, assistendo la Commissione nella:

  • implementazione del Regolamento, laddove necessario;
  • identificazione di tendenze tecnologiche da monitorare;
  • modifica normativa.

A sua volta il Consiglio dell’AI sarà affiancato da “un forum di consulenti tecnici”, mentre la Commissione potrà avvalersi di “un comitato indipendente di scienziati ed esperti”.

Chi non si adeguerà all’AI Act rischierà multe fino a 35 milioni di euro o al 7% del fatturato globale qualora incorra in usi vietati. Se poi saranno coinvolti sistemi ad alto rischio o quelli di uso generale, la sanzione potrà ammontare fino a un massimo di 15 milioni o del 3% del fatturato globale. In caso di informazioni scorrette, infine multe fino a un tetto di 7,5 milioni di euro o dell’1% del fatturato globale.

Insomma, violare le norme costerà caro.

AI ACT, la sinossi: tra somiglianze e differenze con focus sul riconoscimento facciale e identificazione biometrica

Da una prima analisi comparativa, confrontando i due testi in sinossi, notiamo alcune somiglianze e talune differenze e in particolare con riferimento al tema caldo del riconoscimento facciale e dell’identificazione biometrica.

SOMIGLIANZEDIFFERENZE
DefinizioniEntrambe le versioni forniscono definizioni dettagliate di “identificazione biometrica”, includendo l’automazione del riconoscimento di caratteristiche fisiche, fisiologiche, comportamentali e psicologiche per stabilire l’identità di una persona.Dettagli su autorizzazioni supervisioneIl documento consolidato sembra fornire più dettagli sulle procedure di autorizzazione e supervisione per l’uso di sistemi di identificazione biometrica in tempo reale, inclusa la specifica che le autorizzazioni devono essere ottenute in anticipo, tranne in situazioni di urgenza debitamente giustificate.
Identificazione biometrica in tempo realeSia la bozza che il documento consolidato discutono l’uso di sistemi di identificazione biometrica in tempo reale in spazi pubblicamente accessibili, sottolineando la necessità di autorizzazioni specifiche e di valutazioni dell’impatto sui diritti fondamentali.
Utilizzo post-eventoIl documento consolidato parla specificamente dell’uso dei sistemi di identificazione biometrica “post” per l’analisi di filmati registrati, che devono essere soggetti a un’autorizzazione pregiudiziale.
Limiti e condizioniEntrambi i documenti enfatizzano i limiti e le condizioni per l’uso di sistemi di identificazione biometrica, in particolare nell’applicazione della legge, e l’importanza di proteggere i diritti e le libertà delle persone coinvolte.
Ambito di applicazioneLa bozza sembra concentrarsi maggiormente sull’uso di sistemi di identificazione biometrica nel contesto dell’applicazione della legge, mentre il documento consolidato approfondisce aspetti come la categorizzazione biometrica e i sistemi di riconoscimento delle emozioni.
Rischi e classificazioneIl documento consolidato categorizza i sistemi di identificazione biometrica come ad alto rischio, sottolineando la necessità di classificarli in modo appropriato a seconda dei rischi coinvolti.

AI ACT, a quando le nuove regole

Una volta approvato il testo, questo diventerà definitivo, potendone solo allora parlare in termini di reale ed effettiva “approvazione” fase che coinciderà con l’uscita del testo in Gazzetta Ufficiale europea. Fino ad allora dobbiamo andare cauti con valutazioni e commenti stentorei.

Una volta entrato in vigore, dovranno passare altri due anni (24 mesi) per la piena attuazione. Tuttavia, alcune norme come per ipotesi quelle sulle pratiche di AI vietate, saranno operative già dopo sei mesi; altre come quelle per l’AI con finalità generali dopo un anno; e altre ancora anche dopo tre, pensando ai sistemi ad alto rischio, a maggior ragione alla luce delle considerazioni finora esposte.

Articoli correlati

Articolo 1 di 4