Gli artefici dell’AI Act, la legge più ambiziosa al mondo per regolamentare lo sviluppo dell’intelligenza artificiale, lanciano un appello urgente a Bruxelles: stop ai tentativi di indebolirne i contenuti. In una lettera inviata alla commissaria europea per il Digitale, Henna Virkkunen, alcuni dei principali europarlamentari coinvolti nella stesura della normativa denunciano come “pericolose” le mosse in corso per rendere alcune parti della legge meno vincolanti.
“Adottare tali richieste è pericoloso, antidemocratico e crea incertezza giuridica”, scrivono i firmatari, riferendosi a un possibile ammorbidimento delle norme che finirebbe per risparmiare giganti statunitensi come OpenAI e Google da obblighi fondamentali.

Indice degli argomenti:
Il rischio? Modelli AI fuori controllo
I parlamentari europei sottolineano i rischi legati a una gestione “leggera” delle tecnologie più avanzate. “Se i fornitori dei modelli di AI generali più influenti dovessero adottare posizioni politiche estreme, implementare politiche che minano l’affidabilità dei modelli, facilitare interferenze straniere o manipolazioni elettorali, contribuire alla discriminazione, limitare la libertà di informazione o diffondere contenuti illegali, le conseguenze potrebbero compromettere profondamente l’economia e la democrazia europee”, si legge nella missiva.
Tra i firmatari figurano quasi tutti gli europarlamentari che hanno negoziato l’AI Act e Carme Artigas, ex ministra spagnola per la digitalizzazione e l’intelligenza artificiale, che ha guidato i negoziati per conto degli Stati membri fino all’accordo finale raggiunto nel dicembre 2023.
Una legge rivoluzionaria, ora a rischio
L’AI Act classifica le tecnologie in tre categorie di rischio, a seconda del potenziale impatto sulla salute e sulla sicurezza delle persone. Maggiore è il rischio, maggiori sono gli obblighi di trasparenza e rendicontazione richiesti. I modelli di intelligenza artificiale più potenti, come quelli general purpose, sono soggetti a regole supplementari, tra cui l’obbligo di chiarezza sul modo in cui vengono addestrati.
La parte oggetto di dibattito riguarda il cosiddetto “Codice di condotta”, ovvero le linee guida operative per aiutare le aziende a implementare correttamente la legge. Questo codice interesserà sistemi come Gemini di Google, Llama di Meta e GPT-4 di OpenAI.
Pressioni da Oltreoceano
Il Codice di condotta, redatto da un gruppo di esperti tra cui il premio Turing Yoshua Bengio, dovrebbe essere adottato dalla Commissione entro maggio. Ma, come riferiscono fonti vicine ai lavori, gli esperti stanno cercando un equilibrio delicato tra efficacia normativa e volontà delle aziende di aderire.
La pressione da parte degli Stati Uniti è fortissima. A febbraio, Joel Kaplan, responsabile degli affari globali di Meta, ha dichiarato pubblicamente a Bruxelles che il codice imporrebbe “requisiti inapplicabili e tecnicamente irrealizzabili”. Meta ha anche affermato di non poter distribuire i suoi modelli linguistici multimodali né il suo nuovo assistente AI in Europa, a causa delle stringenti regole sulla privacy.
Non è sola: anche Google, Spotify ed Ericsson hanno espresso critiche nei confronti della normativa europea.
Una spaccatura politica in Europa
Nel frattempo, il vicepresidente americano JD Vance ha usato il palco del Summit sull’AI a Parigi per lanciare un duro attacco: “L’intelligenza artificiale deve rimanere libera da pregiudizi ideologici” e ha messo in guardia contro “un’eccessiva regolamentazione dell’AI”.
La nuova Commissione Europea, in carica da dicembre, sembra orientata a una maggiore apertura verso gli investimenti nel settore. Ha già annunciato il ritiro della proposta di direttiva sulla responsabilità dell’AI, nel quadro di una più ampia spinta alla deregolamentazione.
Codice di condotta per l’AI: le criticità e le prossime fasi
L’ultima versione del Codice di condotta per l’intelligenza artificiale per uso generale ha suscitato preoccupazioni tra gli operatori del settore, in particolare per quanto riguarda la gestione dei diritti d’autore e la valutazione dei rischi.
Il Codice di Condotta per l’AI Generale: l’ultima versione
La Commissione Europea ha recentemente diffuso l’ultima bozza del Codice di condotta per gli operatori dell’intelligenza artificiale per uso generale (GPAI). Questo documento è stato redatto da un gruppo di esperti incaricato dalla Commissione stessa e si propone di stabilire linee guida per i fornitori di modelli di intelligenza artificiale come ChatGPT, Google Gemini e Midjourney, per garantire la conformità alla legislazione europea sull’AI. Tuttavia, il settore tecnologico resta preoccupato, come evidenziato da Euronews, in merito ai requisiti ancora troppo stringenti.
Le preoccupazioni del settore tecnologico
Diversi gruppi di interesse hanno espresso preoccupazioni riguardo alla bozza, in particolare per quanto riguarda le regole di trasparenza, i diritti d’autore, la valutazione dei rischi e le misure di mitigazione. Boniface de Champris, senior policy manager della lobby tecnologica Ccia, ha sottolineato i “gravi problemi” ancora presenti, tra cui gli obblighi di ampia portata in materia di copyright e la necessità di garantire la trasparenza dei modelli, che potrebbero mettere a rischio i segreti commerciali delle aziende. Inoltre, le valutazioni dei rischi richieste sono considerate onerose, soprattutto quelle relative all’impatto esterno.
Le modifiche richieste dagli esperti
Secondo Elias Papadopoulos, direttore delle politiche di Dot Europe, la bozza è migliorata rispetto alla versione precedente, ma alcune disposizioni restano problematiche. In particolare, la valutazione obbligatoria dei rischi da parte di terzi, prevista sia prima che dopo l’installazione, non è un obbligo imposto dalla legge sull’AI, ma è stata comunque mantenuta nella nuova bozza. Questo aspetto solleva ulteriori dubbi sulla gestione delle normative.
La scadenza per il feedback e la pubblicazione finale
La Commissione Europea ha deciso di posticipare la scadenza per il feedback sulla terza versione del Codice di condotta fino al 30 marzo. Questo passaggio è stato ritenuto necessario per tenere conto dei commenti ricevuti dalle parti interessate. La versione definitiva del documento è prevista per maggio 2025. Fino ad allora, sarà possibile proporre modifiche e osservazioni, dando così un’ulteriore opportunità a chi opera nel settore di esprimere le proprie preoccupazioni.
I problemi di copyright: un tema centrale
Un altro punto critico riguarda il trattamento dei diritti d’autore. Iacob Gammeltoft, senior policy manager di News Media Europe, ha criticato la bozza, sottolineando che il codice non rispetta adeguatamente le leggi sul copyright. Gammeltoft ha dichiarato che non è sufficiente che le aziende di AI si impegnino a fare “i migliori sforzi” per non utilizzare contenuti protetti da copyright senza autorizzazione. L’obbligo di garantire un accesso lecito ai contenuti è un principio fondamentale che, secondo lui, non viene rispettato appieno dalla nuova bozza.
Diritti fondamentali e rischi: le criticità persistenti
Inoltre, un altro punto di criticità riguarda la protezione dei diritti fondamentali. Laura Lazaro Cabrera, direttrice del programma per l’equità e i dati presso il Centre for Democracy & Technology Europe, ha osservato che la bozza non affronta in modo adeguato la considerazione e la mitigazione dei rischi più gravi per i diritti fondamentali. La sua valutazione resta facoltativa per i fornitori di modelli di AI generici, una lacuna che preoccupa molti esperti del settore.
Prospettive future e il ruolo del Parlamento Europeo
La Commissione Europea ha la possibilità di formalizzare il Codice di condotta nell’ambito della legge sull’AI, che entrerà in pieno vigore nel 2027, attraverso un atto di esecuzione. La questione del copyright e dell’intelligenza artificiale è anche oggetto di discussione presso il Parlamento Europeo, con il deputato tedesco Axel Voss incaricato di redigere una relazione su questo tema. Le prossime settimane saranno cruciali per definire i dettagli finali di una normativa che potrebbe avere un impatto significativo su come l’AI verrà sviluppata e utilizzata in Europa.
Il dibattito sul Codice di condotta continua a essere al centro di un acceso confronto tra istituzioni europee, esperti e operatori del settore. La sua evoluzione avrà ripercussioni importanti per il futuro dell’intelligenza artificiale in Europa, soprattutto in relazione alla protezione dei diritti d’autore e dei diritti fondamentali.
La posizione della Commissione: “Linee guida, non ostacoli”
La commissaria Henna Virkkunen ha ribadito l’intenzione di non caricare le aziende di nuovi oneri. “È importante che il Codice di condotta aiuti realmente le industrie, le parti interessate e le PMI, fornendo linee guida e non ponendo ulteriori ostacoli o obblighi di rendicontazione”.
Allo stesso tempo, ha cercato di rassicurare i difensori della linea dura: “Vogliamo assicurarci che l’Europa abbia un ambiente equo, sicuro e democratico, anche nel mondo digitale”.