Normative

AI Act: il mondo delle imprese e della cultura chiede con forza regole chiare



Indirizzo copiato

Dopo gli esperti europei, 34 associazioni italiane chiedono all’unisono al governo italiano di cambiare posizione sul Regolamento sull’intelligenza artificiale in via di approvazione al Parlamento europeo. “Accogliamo con favore le proposte del Parlamento Europeo di includere requisiti specifici di trasparenza per i modelli di base dell’intelligenza artificiale. Questi obiettivi non possono assolutamente essere raggiunti ammorbidendo la proposta votata o seguendo ipotesi di autoregolamentazione”

Pubblicato il 5 dic 2023



AI Act

“L’Italia sostenga le previsioni sugli obblighi di trasparenza sulle fonti di contenuti con cui sono addestrati gli algoritmi dell’intelligenza artificiale. È necessario un quadro di regole chiare ed efficaci che “l’autoregolamentazione non può garantire”. È questo il messaggio principale contenuto nell’appello inviato al Governo da trentaquattro associazioni di imprese, autori e artisti in vista del Trilogo del 6 dicembre, che avrà all’ordine del giorno lo spinoso negoziato per approvare in tempi rapidi l’AI Act.

A firmare l’appello è tutto il mondo dell’industria culturale italiana

Il nuovo appello giunge a qualche giorno di distanza da quello analogo inviato dal presidente di Atomium insieme con Luciano Floridi, a Italia, Germania e Francia, che parteggiano per un quadro legislativo più leggero.

Le organizzazioni firmatarie dell’appello rappresentano imprese culturali nei settori audiovisivo, cinema, televisione, servizi per la valorizzazione e tutela del patrimonio culturale, musica, editoria libraria e giornalistica: 100 autori, Afi, Aie, Anac, Anica, Confindustria cultura, Fieg, Fimi, Siae, Univideo e molte altre, oltre a centinaia di migliaia di autori e artisti. Tutti soggetti che dipendono dalla capacità di vendere contenuti, prodotti e servizi basati sul diritto d’autore e di concedere in licenza, le opere realizzate, ma anche voce, immagine e altri dati personali.

A questi si sono uniti scienziati italiani e internazionali del settore e sei istituzioni italiane, tra cui la Fondazione FAIR e AIxIA (Associazione Italiana per l’Intelligenza Artificiale). “Come scienziati della comunità dell’intelligenza artificiale vogliamo far sentire la nostra voce a sostegno della necessità di regole sui grandi modelli generativi, i ‘foundation model’, nell’ambito della Regolamentazione Europea sull’Intelligenza Artificiale, l’AI Act, in corso di negoziazione finale”, scrivono gli autori della lettera aperta. Insomma, il coro è trasversalmente unanime: sì alle regole, no all’autoregolamentazione dell’AI.

Il testo della lettera inviata al governo italiano


“In questi giorni a Bruxelles è in corso un delicato negoziato per approvare l’EU AI Act, il regolamento europeo che intende stabilire un quadro giuridico per lo sviluppo dell’intelligenza artificiale, compresa quella generativa. È una grande opportunità per le industrie culturali e creative che deve essere regolata garantendo al contempo i diritti fondamentali della società e degli individui. L’intelligenza artificiale rappresenta uno straordinario progresso tecnologico con un immenso potenziale per migliorare vari aspetti delle nostre vite, compresi quelli nei nostri settori. Tuttavia, è cruciale riconoscere che, insieme a questi benefici, esiste un lato più oscuro di questa tecnologia.

In particolare, l’intelligenza artificiale generativa viene addestrata su grandi dataset e ingenti quantità di contenuti protetti dal diritto d’autore e che vengono spesso raccolti e copiati da internet. Essa è programmata per produrre risultati che hanno la capacità di competere con la creazione umana. Questa tecnologia comporta diversi rischi per le nostre comunità creative. Le opere protette, le voci e le immagini vengono utilizzate senza il consenso dei titolari dei diritti per generare nuovi contenuti. Alcuni di questi utilizzi possono ledere non solo i diritti d’autore ma anche i diritti morali e della personalità degli autori e pregiudicare la loro reputazione personale e professionale. Inoltre, c’è il rischio che il loro lavoro originale degli autori, artisti e delle imprese culturali e creative venga sostituito, costringendoli a competere con le loro repliche digitali che ne ricaverebbero ovvi vantaggi sotto diversi profili con gravi conseguenze anche economiche.

Esiste anche un rischio più ampio per la società, poiché le persone potrebbero essere indotte a credere che i contenuti che incontrano – testuali, audio o audiovisivi – siano creazioni umane autentiche e veritiere, quando sono semplicemente il risultato della generazione o manipolazione dell’intelligenza artificiale. Questo inganno può avere implicazioni di vasta portata per la diffusione di disinformazione e l’erosione della fiducia nell’autenticità dei contenuti digitali e presenta seri problemi anche sotto il profilo etico.

L’intelligenza artificiale non può svilupparsi trascurando i diritti fondamentali, come i diritti degli autori e degli interpreti, i diritti sull’immagine e sulla personalità ed i diritti delle molteplici industrie creative e culturali che investono per rendere possibile la creazione di opere sulle quali è legittimo aspettarsi di poter esercitare un controllo. L’intelligenza artificiale non dovrebbe mai essere impiegata in modi che possano ingannare il pubblico. L’AI Act deve garantire che sia data assoluta priorità alla massima trasparenza delle fonti utilizzate per addestrarne gli algoritmi, a favore dei creativi e delle industrie che rappresentiamo e più in generale della società europea.

Gli obblighi previsti dovrebbero essere applicati agli sviluppatori e agli operatori di sistemi e modelli di intelligenza artificiale generativa a monte e a valle con particolare riferimento all’obbligo di conservare e rendere pubblicamente disponibili informazioni sufficientemente dettagliate sulle fonti, i contenuti e le opere utilizzati per l’addestramento, al fine di consentire alle parti con un interesse legittimo di determinare se e come i loro diritti siano stati lesi e di intervenire. Questi obblighi devono essere quantomeno estesi a tutti i sistemi resi disponibili nell’Ue o che generano output utilizzati nell’Ue, commerciali o non commerciali e portare alla presunzione di utilizzo in caso di mancata osservanza consentendo agli aventi diritto di esercitare le proprie prerogative anche per la concessione di licenze.

È cruciale riconoscere che nessuna delle protezioni basate sugli strumenti legali già esistenti nella normativa europea ha la minima possibilità di funzionare se non vengono poste rigorose e specifiche regole di trasparenza a carico degli sviluppatori di intelligenza artificiale generativa.

Accogliamo con favore le proposte del Parlamento Europeo di includere requisiti specifici di trasparenza per i modelli di base dell’intelligenza artificiale, e apprezziamo lo sforzo della Presidenza spagnola nella ricerca di una soluzione equilibrata, ma è di primaria importanza potenziare ulteriormente queste tutele. La raccolta di dati e testi per addestrare l’intelligenza artificiale era inizialmente consentita a scopi di ricerca e analisi delle tendenze; oggi, ciò è diventato parte integrante della creazione di contenuti: la legislazione deve riflettere questo cambiamento nel regolare e tutelare l’uso di opere protette e dati personali. Questi obiettivi non possono assolutamente essere raggiunti ammorbidendo la proposta votata dal Parlamento europeo o seguendo ipotesi di autoregolamentazione”.

L’appello sull’AI Act termina chiedendo “con forza al Governo italiano di sostenere una regolamentazione equilibrata che, garantendo la trasparenza delle fonti, favorisca lo sviluppo delle tecnologie di intelligenza artificiale, tutelando e promuovendo al contempo la creatività umana originale e tutti i contenuti culturali del nostro Paese”.

Perché l’industria culturale italiana è in allarme sull’AI Act

Proviamo a capire i motivi che hanno spinto l’intero mondo dell’industria culturale italiana ad appellarsi al governo affinché cambi rotta sull’AI ACT.

Il 6 dicembre si tiene la prossima riunione, il Trilogo in cui i co-legislatori proveranno a trovare l’intesa su un tema critico, quello dei foundation model, i modelli pre-addestrati su grandi quantità di dati utilizzati per realizzare sistemi con ChatGPT.

Il punto è che su questo tema l’Italia, con Francia e Germania, si oppone a una “iper-regolazione”, in contrasto con la posizione del Parlamento che, invece, è a favore di regole stringenti. La presidenza spagnola ha cercato di mediare, proponendo un approccio graduale, sulla falsariga di quello americano, che sottopone a vigilanza i modelli più avanzati.

In un’intervista rilasciata al Corriere delle Comunicazioni, Brando Benifei, eurodeputato del PD e relatore dell’AI Act, spiega che “esiste una diversità di vedute per quanto riguarda i modelli di base. Il Parlamento europeo è convinto che, se il livello di impatto è più elevato, sia necessario fare ricorso a obblighi di sicurezza più stringenti. Diversa invece è la posizione di alcuni Stati, come Germania e Francia, che per ora hanno continuato a preferire un approccio legato solamente al rischio applicato. Anche l’Italia si è allineata su questa posizione”. Benifei prosegue affermando che i governi di Italia, Francia e Germania preferirebbero regolamentare i sistemi general purpose con “meri obblighi di trasparenza. Per fare questo sarebbe sufficiente definire una documentazione tecnica che riassuma le informazioni sui modelli addestrati”.

Questo approccio, però, non trova riscontro nel Parlamento Ue. “Perché non tiene in debita considerazione il rischio sistemico dell’evoluzione tecnologica”, afferma Benifei. “Mi spiego: per i foundation model più potenti non è possibile, ad oggi, prevedere come si svilupperanno. Per questo vanno previste delle regole pre-mercato che ne verifichino i requisiti di sicurezza prima della trasposizione in sistemi e della commercializzazione”.

Altro punto riguarda i divieti di utilizzo. “Vanno vietati – di questo il Parlamento Europeo è fortemente convinto – la sorveglianza e il controllo tramite AI negli spazi pubblici, ad eccezione delle indagini su crimini specifici col via libera di un giudice, così come strumenti di polizia predittiva che in teoria dovrebbero prevedere chi potrebbe commettere un reato”.

Uno degli argomenti che sta maggiormente a cuore all’industria culturale italiana, e non solo, è la protezione del diritto d’autore. “L’AI Act mira a garantire trasparenza sui contenuti prodotti dall’intelligenza artificiale tramite l’utilizzo obbligatorio da parte degli sviluppatori dei cosiddetti watermarks, ossia ‘filigrane digitali’ nascoste appositamente ‘seminate’ in testi, video o immagini generate dall’AI, che rendono conoscibile da un qualunque device l’origine non umana del contenuto”. Un obbligo di importanza fondamentale per combattere disinformazione (fake news) e deep fake. “E su questo l’accordo con il Consiglio c’è”, dichiara Benifei. “Dove ancora non c’è, è sulla questione del copyright dove anche le big tech hanno espresso più di qualche dubbio”.

Qui la questione è complessa, a livello tecnico, e non c’è ancora un accordo fra Parlamento Europeo e Consiglio.

Alla luce di queste problematiche e di queste divisioni, riuscirà l’Europa a dotarsi, per prima al mondo, di una legge organica che regoli l’utilizzo dell’AI? “Come Parlamento auspichiamo che il pacchetto venga varato prima della fine della legislatura (ad aprile 2024 ndr) – prosegue Benifei – anche perché il tempo c’è, ma soprattutto c’è già l’accordo sull’impianto generale che individua settori sensibili, ad esempio giustizia, scuole e sanità. Confidiamo dunque di trovare una quadra complessiva il prossimo 6 dicembre”.

Articoli correlati

Articolo 1 di 4