Etichettare i contenuti generati da intelligenza artificiale, in modo che siano chiaramente riconoscibili. È questo il provvedimento cardine della proposta contenuta nel “Disegno di legge sulla trasparenza dei contenuti generati da intelligenza artificiale”, primo firmatario Antonio Nicita del Pd. Gli autori segnalano infatti che una quota sempre maggiore di contenuti audiovisivi ed editoriali è frutto di elaborazioni dell’AI generativa e ciò va opportunamente segnalato a chi ne fruisce, per evitare ogni possibile manipolazione dell’informazione e la violazione del diritto d’autore, evidenzia il “Disegno di legge sulla trasparenza dei contenuti generati da intelligenza artificiale”.
Il disegno di legge del Pd sull’AI
A preoccupare i legislatori sono i cosiddetti deep fake, si legge nella proposta. Il crescente ricorso a questi contenuti generati dall’AI pone “diverse criticità legate all’autenticità, alla verifica delle fonti, al diritto d’autore, al diritto alla tutela della propria immagine, al contrasto alla disinformazione e alla responsabilità per diffamazione”.
Il Parlamento europeo ha recentemente discusso la proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (AI Act) e modifica alcuni atti legislativi dell’Unione (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)), come ha indicato Nicita ai senatori: “In attesa di un quadro regolatorio complessivo, anche in attuazione dei regolamenti europei, appare urgente rendere univocamente e immediatamente trasparente e riconoscibile agli utenti la natura non umana, e dunque artefatta e manipolata, dei contenuti generati da AI, anche attraverso un’apposita etichettatura immediatamente riconoscibile (label) o tracciamento (watermark)”.
Il disegno di legge proposto del Pd introduce l’obbligo per i soggetti responsabili della pubblicazione e della diffusione dei contenuti generati da AI, in ogni mezzo trasmissivo, di assicurare immediata riconoscibilità agli utenti dei contenuti generati da Ai, ad esempio con un’univoca etichettatura (“AI made/prodotto da intelligenza artificiale)” nelle modalità che saranno definite dall’Autorità per le garanzie nelle comunicazioni (Agcom) con proprio Regolamento da pubblicare entro 60 giorni dall’approvazione della legge.
L’Agcom dovrà avere potere sanzionatorio
L’Agcom sarebbe responsabile del monitoraggio e dell’applicazione delle disposizioni della legge e avrebbe sia i compiti di segnalazione e rimozione dei contenuti pubblicati e diffusi in violazione di questa disposizione sia il potere sanzionatorio. Le sanzioni sarebbero proporzionate alla gravità della violazione.
La proposta di legge definisce “contenuti generati da intelligenza artificiale (IA)” tutti i contenuti editoriali, compresi testi, video, immagini e voci, che sono creati, generati o sintetizzati, in tutto o in parte, da sistemi basati su intelligenza artificiale, ivi compresi algoritmi di machine learning e reti neurali artificiali.
Le preoccupazioni per la perdita di posti di lavoro, una Commissione di indagine
Dal canto suo, la Presidenza del Consiglio ha avviato una Commissione di indagine sulla potenziale perdita di posti di lavoro legata all’adozione di algoritmi di intelligenza artificiale. Promotore dell’iniziativa è Alberto Barachini, responsabile per l’editoria del governo Meloni, che ha offerto la carica di presidente della Commissione a Giuliano Amato.
La Commissione dovrà studiare il fenomeno e redigere un report per valutare quanti posti sono a rischio, soprattutto in settori come l’editoria e il giornalismo – il settore toccato dalla proposta di legge firmata da Nicita – e quali contromisure il governo potrà prendere.