Normative

Perché la Commissione europea frena sul ddl AI italiano



Indirizzo copiato

La Commissione europea ha espresso parere negativo sul disegno di legge italiano in materia di intelligenza artificiale. Non occorrono altre regole di respiro nazionale essendoci già quelle ben definite dall’AI Act. Ecco, in dettaglio, tutte le motivazioni

Pubblicato il 17 dic 2024

Chiara Ponti

Avvocato, Legal & Compliance e nuove tecnologie



DDL-AI

La Commissione europea richiama l’Italia sul ddl AI, presentato in Senato a fine aprile 2024. A distanza di mesi, arriva il semaforo rosso da parte della Commissione, con un parere circostanziato, mettendo in evidenza alcuni punti d’urto tra il testo italiano e l’AI Act, come di seguito rappresentati.

ddl Ai emendamenti
Montecitorio, sede del Parlamento italiano

Ddl AI e il parere testuale della Commissione UE (C -2024 -7814)

La Commissione europea, il 5 novembre 2024, ha trasmesso all’Italia un parere circostanziato (C(2024) 7814) redarguendo l’Italia, quasi articolo per articolo, in ordine al ddl in materia di AI, e in particolare come si ha modo di leggere testualmente nel resoconto istituzionale:

  • suggerisce di inserire all’articolo 1 un riferimento specifico al regolamento europeo sull’intelligenza artificiale (IA);
  • in riferimento alle definizioni di cui all’articolo 2, segnala che quella di “modelli di IA” differisce da quella del regolamento europeo sull’IA e che, comunque, la norma nazionale dovrebbe limitarsi a fare riferimento alle definizioni già contenute nel regolamento senza replicarle;
  • in riferimento all’articolo 5, comma 1, lettera d), del disegno di legge, la Commissione europea invita a chiarire il concetto di dati “critici“, limitandolo ai casi in cui sono in gioco interessi di sicurezza nazionale;
  • in riferimento all’articolo 7, comma 3, che stabilisce obblighi informativi per gli operatori di sistemi di IA in ambito sanitario e di visibilità nei confronti dei pazienti, la Commissione europea ritiene opportuno che gli obblighi informativi dell’operatore a beneficio del paziente debbano limitarsi esclusivamente all’impiego dell’IA, senza estenderli ai “vantaggi, in termini diagnostici e terapeutici, derivanti dall’utilizzo delle nuove tecnologie” e alle “informazioni sulla logica decisionale utilizzata”, per non andare oltre quanto previsto dal regolamento europeo sull’IA;
  • in riferimento all’articolo 12, sull’uso dei sistemi di IA nell’ambito delle professioni intellettuali, la Commissione europea invita a eliminare qualsiasi restrizione nell’uso di sistemi di IA non “ad alto rischio”, per non porsi in contrasto con il regolamento;
  • in riferimento all’articolo 14, che consente l’utilizzo dei sistemi di IA nell’attività giudiziaria solo per l’organizzazione e semplificazione del lavoro giudiziario e per la ricerca giurisprudenziale e dottrinale, la Commissione europea invita ad allineare tale norma, all’articolo 6, paragrafo 3, del regolamento sull’IA, che non esclude la possibilità di utilizzare sistemi di IA pur classificati come “ad alto rischio” ma che “non presentano un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, o non influenzano materialmente il risultato del processo decisionale“;
  • in riferimento alla designazione delle autorità nazionali competenti (articoli 18 e 22), la Commissione europea ricorda che queste devono possedere lo stesso livello di indipendenza previsto dalla direttiva (UE) 2016/680 per le autorità preposte alla protezione dei dati nelle attività delle forze dell’ordine, nella gestione delle migrazioni e controllo delle frontiere, nell’amministrazione della giustizia e nei processi democratici;
  • in riferimento alla delega di cui al comma 3 dell’articolo 22, volta all’organica definizione della disciplina nei casi di uso di sistemi di intelligenza artificiale per finalità illecite, la Commissione europea ricorda che l’articolo 99 del regolamento sull’IA prevede specifiche disposizioni in materia di sanzioni per violazioni del regolamento da parte degli operatori;
  • in riferimento all’articolo 23, comma 1, lettera b), del disegno di legge, secondo cui i contenuti prodotti dai sistemi di intelligenza artificiale devono essere resi chiaramente riconoscibili mediante un segno visibile con l’acronimo “IA” o mediante un annuncio audio, la Commissione europea ritiene che tale obbligo si sovrapponga e vada oltre gli obblighi di cui all’articolo 50, paragrafi 2 e 4, del regolamento sull’IA;
  • in riferimento all’articolo 23, comma 1, lettera c), del disegno di legge, che impone ai fornitori di piattaforme per la condivisione di video soggetti alla giurisdizione italiana di attuare misure a tutela del grande pubblico da contenuti informativi che siano stati, attraverso l’utilizzo di sistemi di intelligenza artificiale, completamente generati ovvero, anche parzialmente, modificati o alterati in modo da presentare come reali dati, fatti e informazioni che non lo sono”, la Commissione europea non ritiene chiaro in che modo tale disposizione non si sovrapponga all’articolo 50, comma 1, 2 e 4, del regolamento sull’IA.

Rammentando in conclusione che, per giurisprudenza consolidata della Corte di giustizia, è fatto divieto agli Stati membri, e quindi anche all’Italia in primis, diduplicare le disposizioni di un regolamento europeo nel diritto nazionale” (Corte di giustizia UE, causa 34/73, Fratelli Variola, e causa 50/76, Amsterdam Bulb).

AI PACT

DdL AI e il parere della Commissione UE: i punti critici spiegati brevemente

Nel parere in parola, la Commissione UE sottolinea i punti critici del ddL AI all’italiana, richiedendo non solo un più stretto collegamento ad esempio nelle definizioni, ma anche un sostanziale divieto nel creare nuove e ulteriori restrizioni nelle applicazioni dei sistemi di AI, oltre a rispettare il sacrosanto principio di indipendenza nelle Autorità di controllo del settore.

Parti introduttive: richiamo all’AI Act, stesse definizioni e precisazioni sui dati critici (artt. 1, 2 e 5)

Anzitutto la Commissione Ue ha suggerito di inserire già all’art. 1 un riferimento esplicito all’AI Act, in quanto fonte sovraordinata, e nel disegno di legge risulta mancante.

In secondo luogo, ha fatto presente che, nel campo “definizioni”, quella relativa ai “modelli di IA” non appare la stessa contenuta nell’AI Act; non si tratta solo di forma ma anche di sostanza, chiedendo quindi di uniformarvisi.

Con riferimento poi all’art. 5, comma 1, lettera d), del DdL, la Commissione (UE) tramite il parere circostanziato invita a chiarire il concetto di dati “critici”, limitandolo ai soli casi in cui in gioco risultano gli interessi di sicurezza nazionale.

Sanità (art. 7)

In ambito sanitario, il monito della Commissione risiede nel ritenere opportuno che “gli obblighi informativi dell’operatore a beneficio del paziente” debbano limitarsi esclusivamente all’impiego di strumenti di intelligenza artificiale, senza estenderli ai “vantaggi, in termini diagnostici e terapeutici, derivanti dall’utilizzo delle nuove tecnologie” e alle “informazioni sulla logica decisionale utilizzata”, per non andare oltre quanto previsto dall’AI Act in proposito.

D’altronde, è quanto mai delicato questo tema in ottica di governo dei dati stessi che sono evidentemente di natura particolare (ex sensibili se non anche “sensibilissimi”).

Intelligenza artificiale nelle professioni e nel mondo della giustizia (artt. 12 e 14)

Circa l’AI applicata da un lato alle professioni intellettuali e dall’altro nell’ambito giudiziario merita evidenziare che con riferimento al primo campo, la Commissione europea invita il legislatore italiano a eliminare qualsiasi restrizione nell’uso di sistemi di AI non “ad alto rischio”, al fine di non porsi in contrasto con l’AI Act; e dall’altro con richiamo al mondo della giustizia non vi è ragione di restringere il campo di applicazione rispetto all’AI Act (art. 6, par. 3) che per nulla esclude la possibilità di utilizzare sistemi di AI “ad alto rischio” purché non presentino “un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, o non influenzano materialmente il risultato del processo decisionale“.

In altri termini, non c’è ragione alcuna che legittimi l’Italia a regolare la materia introducendo disposizioni e paletti ulteriori rispetto a quelli che già l’AI Act ha introdotto.

Autorità competenti: anche più di una purché indipendenti (artt. 18-22)

Sulla questione della individuazione/designazione di un’autorità competente, da Bruxelles, giunge forte e chiaro un altro monito, ben potendosi avvalere del potere che alla Commissione stessa è stato conferito dalla Direttiva (UE) 2015/1535, affinché venga tutelato “lo spazio unico europeo anche rispetto all’attuazione da parte degli Stati membri delle regole europee nel settore delle regolamentazioni tecniche e dei servizi della società dell’informazione”.

In pratica, chi è chiamato a vigilare che sia in forma duale, deve in ogni caso possedere lo stesso livello di indipendenza previsto dalla Direttiva (UE) 2016/680 per le autorità preposte alla protezione dei dati nelle attività delle forze dell’ordine, nella gestione delle migrazioni e controllo delle frontiere, nell’amministrazione della giustizia e nei processi democratici.

Di qui, tra gli altri, ecco “perché l’Europa fa bene a bocciare la legge italiana”, come bene spiega il prof. Franco Pizzetti in uno dei suoi ultimi articoli, disponibile qui per ulteriori approfondimenti.

Illeciti: delega (art. 22)

Ancora, con riferimento alla delega volta all’organica definizione della disciplina “nei casi di uso di sistemi di intelligenza artificiale per finalità illecite” (art. 22, comma III), la Commissione europea invoca l’art. 99 dell’AI Act, rammentando che lo stesso già prevede specifiche disposizioni in materia di sanzioni per violazioni del Regolamento da parte degli operatori. Perché allora introdurne altre? Per eccesso di zelo?

Fenomeno del cd. “watermark” per la verifica dei contenuti (art. 23)

Da ultimo, segnaliamo come la Commissione nel parere circostanziato in parola, visionando il ddl AI si soffermi sull’obbligo per i fornitori di piattaforme di attuare misure a tutela, nel rispetto del grande pubblico, di sapere che i contenuti sono stati generati dall’AI, grazie all’uso dei cd. watermark (cioè quei fondamentali strumenti volti ad aiutare quanti vogliano capire se un contenuto è generato da AI o meno), già disciplinato dall’art. 50, comma 1, 2 e 4, dell’AI Act, cui si rinvia.

Insomma, si attende la versione del ddl ragguagliata ai moniti della Commissione europea, con la speranza di leggere un testo di legge definitivo che garantisca l’uso delle tecnologie emergenti nel pieno rispetto dei diritti umani nonché dei valori democratici in una democrazia a) tipica che si deve attagliare a una società nel pieno della sua transizione digitale.

Articoli correlati

Articolo 1 di 4