Normative

Ddl sull’intelligenza artificiale, ecco tutte le novità



Indirizzo copiato

L’Italia è il primo paese europeo a dotarsi di una legge nazionale. Scelto un sistema di governance “duale”: Acn, Agenzia per la cybersicurezza nazionale e Agid, con compiti distinti. Confermata la dote economica di un miliardo di euro tramite investimenti effettuati attraverso il Fondo di sostegno al venture capital. Inserito il reato di “illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale”

Aggiornato il 16 lug 2024



Ddl intelligenza artificiale

L’Italia ha la sua legge sull’intelligenza artificiale. Con quasi un mese di ritardo rispetto a quanto precedentemente annunciato dal Governo (“fine marzo”), il 23 aprile il Consiglio dei Ministri ha dato il via libera al disegno di legge sull’intelligenza artificiale.

Il sottosegretario all’Innovazione Alessio Butti, con il Dipartimento per la Trasformazione Digitale, avrà la delega sul coordinamento della strategia nazionale sull’AI, aggiornata ogni due anni.

Conferenza stampa del Consiglio dei Ministri n. 78
Video: conferenza stampa del Cdm – 23 aprile 2024

Ddl intelligenza artificiale: un sistema di governance “duale”

L’AI Act, il regolamento europeo che disciplina la materia già approvato dal Parlamento Ue e in via di definitiva adozione, prevede che ciascuno Stato membro si doti di un’autorità nazionale per l’intelligenza artificiale, senza definire in modo rigido il tipo di ente. Il governo italiano ha scelto un sistema di governance “duale”: l’Acn, Agenzia per la cybersicurezza nazionale, guidata dal prefetto Bruno Frattasi, avrà il compito di vigilare sull’applicazione dell’intelligenza artificiale, con poteri ispettivi e sanzionatori; l’Agid, Agenzia per l’Italia digitale, di cui è direttore generale Mario Nobile, si occuperà dell’esecuzione della strategia nazionale, di promuovere l’innovazione e lo sviluppo dell’AI, e di definire le procedure e a esercitare le funzioni e i compiti in materia di valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di intelligenza artificiale.

Le due Autorità dovranno “garantire l’applicazione e l’attuazione della normativa nazionale e dell’Unione europea in materia di intelligenza artificiale”. Ciascuna per le rispettive competenze, assicureranno secondo le intenzioni del governo l’istituzione e la gestione congiunta di spazi di sperimentazione finalizzati alla realizzazione di sistemi di intelligenza artificiale conformi alla normativa nazionale e dell’Unione europea, sentito il Ministero della Difesa per gli aspetti relativi ai sistemi di intelligenza artificiale impiegabili in chiave duale.

La strategia nazionale per l’intelligenza artificiale

Il Ddl introduce la Strategia nazionale per l’intelligenza artificiale, un documento che garantisce la collaborazione tra pubblico e privato, coordinando le azioni della pubblica amministrazione in materia e le misure e gli incentivi economici rivolti allo sviluppo imprenditoriale ed industriale. I risultati del monitoraggio vengono trasmessi annualmente alle Camere.

Il “carve-out” su sicurezza e difesa nazionale: come per l’executive order del presidente Usa Biden e dell’AI Act europeo, le questioni di sicurezza nazionale e difesa, e le attività svolte dalle forze armate e dalle forze di polizia in questi ambiti, sono escluse dall’ambito applicativo del Ddl.

Ddl intelligenza artificiale

Ddl intelligenza artificiale: un fondo da un miliardo di euro

Confermata la dote economica annunciata dalla premier Meloni a marzo scorso: un miliardo di euro, che mette l’Italia ai primi posti in Europa, dopo Germania e Francia, in termini di impegno finanziario pubblico. Gli investimenti saranno effettuati attraverso il Fondo di sostegno al venture capital.

Il Ministro delle Imprese e del Made in Italy, Adolfo Urso, ha spiegato che il Fondo innovazione servirà a facilitare la nascita e la crescita di start up innovative che utilizzino i processi dell’intelligenza artificiale. “Abbiamo 4 milioni di PMI – ha dichiarato Urso – e dobbiamo metterle nella condizione di utilizzare questa tecnologia sfidante. L’obiettivo è creare un mercato di AI equo e senza barriere all’ingresso. È una tematica centrale il coinvolgimento delle PMI nel processo innovativo che offre l’AI”.

Nell’articolo 21 del disegno di legge, dedicato a “investimenti nei settori di intelligenza artificiale, della cybersicurezza e quantum computing”, si legge che è “autorizzata fino all’ammontare complessivo di un miliardo di eurol’acquisizione di partecipazioni dirette o indirette, grazie a Cdp Venture Capital, in startup e piccole e medie imprese innovative, con sede in Italia, che operano in settori chiave: AI, cybersecurity, quantum computing, telecomunicazioni e 5G, mobile edge computing e web3. Si tratta degli stessi settori previsti nel decreto del 16 febbraio 2024.

I fondi potranno coprire dalla fase di seed a quella di scaleup, così come il supporto a imprese più grandi per creare i cosiddetti “campioni nazionali”, e finanziare “la creazione di poli di trasferimento tecnologico e programmi di accelerazione”.

L’ambito civile e penale: l’aggravante dell’AI

Il Ddl sull’intelligenza artificiale licenziato dal governo interviene anche nell’ordinamento giudiziario, in ambito civile, amministrativo e penale, delegando il governo ad adottare, entro 12 mesi, uno o più decreti legislativi per regolamentare l’uso illecito dell’intelligenza artificiale. In particolare, saranno introdotti nuovi reati e nuovi strumenti cautelari per inibire la diffusione e rimuovere i contenuti generati illecitamente con l’aiuto di sistemi di intelligenza artificiale, nonché una nuova aggravante legata all’uso di AI nel compimento di determinati reati.

Il codice penale sarà modificato con l’inserimento dell’art. 612-quater, “Illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale”, che prevede una pena da uno a cinque anni di reclusione.

L’uso dell’AI in campo penale è escluso, salvo per l’organizzazione e la semplificazione del lavoro e per la ricerca. “È sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento”, in modo da escludere che sia un algoritmo a decidere della validità delle prove o della colpevolezza di qualcuno.

Sul fronte della tutela degli utenti, dati personali e informazione, il ddl prevede che i contenuti generati o modificati dall’intelligenza artificiale, “alterati in modo tale da presentare come reali dati, fatti e informazioni che non lo sono” dovranno avere un bollino, un marchio visibile e riconoscibile con l’acronimo “IA”. A meno che non si tratti di un programma manifestamente “creativo, satirico, artistico o fittizio, fatte salve le tutele per i diritti e le libertà dei terzi”. Gli autori potranno sempre, attraverso una procedura di opt-out, chiedere che le proprie opere non siano usate per addestrare l’intelligenza artificiale. Restano salve le prerogative del Garante per la protezione dei dati personali e l’applicazione del GDPR, il regolamento europeo per la protezione dei dati personali.

L’uso dell’AI per la salute

L’uso dell’intelligenza artificiale per prevenzione, diagnosi e cura di malattie, sviluppo di farmaci, terapie e tecnologie riabilitative, realizzazione di apparati medicali deve essere sempre comunicato all’interessato attraverso un’informativa che potrà essere pubblicata sul sito web del titolare del trattamento. L’Agenas, Agenzia nazionale per i servizi sanitari regionali, progetterà e realizzerà la piattaforma di intelligenza artificiale per supporto alle finalità di cura e di assistenza territoriale, alimentata con i dati strettamente necessari per l’erogazione dei servizi.

Il Ddl istituisce presso il Ministero del Lavoro e delle Politiche Sociali l’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro con il compito di definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito lavorativo, monitorare l’impatto sul mercato del lavoro, identificare i settori lavorativi maggiormente interessati da questa rivoluzione tecnologica.

Il Ddl sull’intelligenza artificiale muove i primi passi

A distanza di tre mesi dall’approvazione, facciamo il punto sull’evoluzione del disegno di legge sull’intelligenza artificiale. I primi passi per la conversione del disegno di legge del governo Meloni riguardante l’intelligenza artificiale sono stati mossi. In Senato, il dossier è stato assegnato all’ottava commissione, responsabile anche dell’innovazione tecnologica. Recentemente, in collaborazione con la decima commissione, che si occupa di lavoro, è iniziato un ciclo di audizioni preliminari all’esame approfondito del testo. A Palazzo Madama sono intervenuti Bruno Frattasi e Mario Nobile, rispettivamente direttore generale dell’Agenzia per la Cybersicurezza Nazionale (ACN) e direttore dell’Agenzia per l’Italia Digitale (AgID), ossia i due enti incaricati dal governo di vigilare sull’applicazione dell’intelligenza artificiale e sul rispetto delle normative.

Fratelli d’Italia ha optato per la linea dell’agenzia governativa. Come la Spagna, che ne ha creata una specifica, in Italia le responsabilità sono state divise tra l’AgID, che sovrintenderà allo sviluppo dell’AI, alla sua applicazione negli enti pubblici e alla certificazione e accreditamento di chi sviluppa algoritmi, e l’ACN, che avrà compiti ispettivi e di sanzione in caso di illeciti.

Il governo vuole “blindare” il testo

Il ciclo di incontri sarà breve, con l’obiettivo di concludere prima delle ferie estive (i lavori del Senato terminano il 7 agosto), per poi passare agli emendamenti al ritorno sui banchi di Palazzo Madama. Il governo intende blindare il testo, poiché il ddl sull’intelligenza artificiale è stato promosso da Fratelli d’Italia, sotto la guida del sottosegretario all’Innovazione Tecnologica, Alessio Butti, molto vicino alla presidente del Consiglio Giorgia Meloni. Ora, la palla è nelle mani delle opposizioni. A metà marzo, il Partito Democratico ha presentato in Senato una propria proposta sull’AI (firmata dai senatori Lorenzo Basso, Antonio Nicita, Antonio Misiani e Marco Meloni) che copre sperimentazioni, ricerca e sussidi per la riqualificazione dei lavoratori, ma è stata accantonata a favore del documento governativo.

Alcune convergenze esistono, anche se il testo del PD prevedeva maggiori risorse. Ad esempio, assegnava 1,2 miliardi di euro complessivi per il triennio 2024-26 per creare un fondo di riqualificazione e formazione professionale sotto l’egida del Ministero del Lavoro, e stanziava ulteriori 50 milioni per la protezione dei brevetti di AI delle piccole aziende italiane a livello globale. Pertanto, le opposizioni si concentreranno principalmente sui fondi stanziati dal progetto governativo (il miliardo è un’autorizzazione alla spesa, che parte da un tesoretto di 150 milioni recuperati da altri fondi) e sul ruolo di governance dei controlli.

Ddl intelligenza artificiale: i commenti

Chi attendeva un elenco più specifico delle misure concrete è stato deluso. Probabilmente si dovrà aspettare i decreti delegati

Massimiliano Masnada, partner dello studio legale internazionale Hogan Lovells, delinea luci e ombre del disegno di legge: “A prima vista il Ddl è notevolmente migliorativo rispetto alla bozza, per la verità non ufficiale, circolata nelle scorse settimane, rispetto alla quale vi erano state molte (giuste) voci critiche. In generale, le norme intervengono in cinque ambiti: la strategia nazionale, le autorità nazionali, le azioni di promozione, la tutela del diritto di autore, le sanzioni penali. Si prevede, inoltre, una delega al governo per adeguare l’ordinamento nazionale al Regolamento UE in materie come l’alfabetizzazione dei cittadini in materia di IA (sia nei percorsi scolastici che in quelli universitari) e la formazione da parte degli ordini professionali per professionisti e operatori. La delega riguarda anche il riordino in materia penale per adeguare reati e sanzioni all’uso illecito dei sistemi di IA”.

Masnada indica poi i punti critici del disegno di legge: “A mio parere, al di là delle affermazioni di principio con cui non si può non essere d’accordo, continuano ad esserci alcune cose che potrebbero essere migliorate nell’ottica di uno sviluppo coerente ed efficace dell’IA in Italia. Prendendo in esame le disposizioni di settore, ciò che mi convince di meno sono le previsioni in ambito sanitario e della ricerca scientifica. Si afferma giustamente, a mio parere, che i trattamenti di dati, anche personali, eseguiti da soggetti pubblici e privati senza scopo di lucro per la ricerca e la sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale per finalità terapeutica e farmacologica, sono dichiarati di rilevante interesse pubblico. Ciò significa, quindi, che l’uso di dati dei pazienti per l’allenamento degli algoritmi di IA nell’ambito della ricerca scientifica è esente dal consenso degli interessati. Tuttavia, non si comprende perché questa previsione valga soltanto per i soggetti pubblici e gli enti non a scopo di lucro, lasciando scoperta una parte rilevantissima della ricerca scientifica che viene effettuata da istituti privati o anche società farmaceutiche che agiscono da sponsor rispetto a studi e ricerche che necessitano di fondi che i soggetti pubblici non sono in grado di reperire. Peraltro, sembrerebbero esclusi tutti quegli istituti e centri di ricerca privati, anche se convenzionati con le regioni e le ATS. È auspicabile un chiarimento in tal senso”.

L’avvocato Masnada passa poi a occuparsi dei dati. “Inoltre, con riferimento all’uso secondario dei dati per la ricerca medica, seppur si afferma il principio che i sistemi di intelligenza artificiale contribuiscono al miglioramento del sistema sanitario e di cura delle malattie nel rispetto della trasparenza e dei diritti fondamentali, quando si parla di sperimentazione e ricerca si introduce un regime autorizzatorio rispetto all’uso secondario dei dati medici che è incoerente con il diritto comunitario e anche con la recente modifica dell’art. 110 del Codice Privacy, approvata proprio ieri con la conversione in legge del DL PNRR (modifica questa, peraltro, non esente da critiche poiché troppo debole rispetto alle esigenze del settore). Nel Ddl IA è infatti previsto che l’uso dei dati personali dei pazienti per i sistemi di IA, oltre all’approvazione dei comitati etici interessati, deve essere comunicato al Garante per la protezione dei dati personali e che i trattamenti possono essere iniziati decorsi trenta giorni dalla predetta comunicazione se non oggetto di blocco disposto dal Garante medesimo. Questa previsione è palesemente contraria al GDPR e al Codice Privacy laddove è esclusa l’approvazione del Garante, anche solo sotto forma di silenzio-assenso, se il trattamento è necessario per un interesse pubblico ovvero è previsto da una legge che gli attribuisce una finalità pubblica rilevante. Inoltre, anche la citata recente riforma dell’art. 110 del Codice Privacy elimina la necessità di ricorrere a consultazione preventiva del Garante in caso di uso secondario dei dati medici per la ricerca medica, rinviando al rispetto di regole deontologiche di settore che il Garante dovrà adottare in ragione delle proprie competenze. È palese la incoerenza tra le due norme approvate peraltro lo stesso giorno.”

Passando agli investimenti, l’avvocato Masnada ne mette in luce la poca consistenza. “L’altra disposizione del Ddl che merita attenzione è quella relativa agli investimenti per favorire lo sviluppo di tecnologia basata sull’IA. La norma appare poco di più di una affermazione di principio; si prevedono investimenti per un ammontare complessivo di 1 miliardo di euro, nei settori dell’intelligenza artificiale, della cybersicurezza e del quantum computing delle telecomunicazioni e delle tecnologie per queste abilitanti (…) Chi attendeva un elenco più specifico delle misure concrete è stato deluso. Probabilmente si dovrà aspettare i decreti delegati. Anche la somma stanziata non sembra all’altezza di quello che stanno facendo gli altri Stati UE (lascerei stare USA e Cina che giocano in un altro campionato). (..) Certo è che questa partita politica in UE appare in salita se si vuole promuovere ‘una via italiana’ all’IA. Ma su tali ragionamenti di politica industriale, come al solito, occorrerà distinguere i proclami dalle cose concrete che riusciremo a fare.”

Un quadro generale, quindi, molto positivo che va a inserirsi in un contesto, quello italiano, in cui esistono già numerose sperimentazioni e buone pratiche pubbliche sull’AI…”

Francesco Di Costanzo, presidente di Fondazione Italia Digitale, mette in luce le novità introdotte dal Ddl: “Diverse le novità, a partire dalla previsione di una delega all’Esecutivo in tema di alfabetizzazione digitale, con focus ovviamente sull’IA (sia nei percorsi scolastici che in quelli universitari), arrivando alla formazione da parte degli ordini professionali e degli operatori. Una decisione importante, perché rendere i cittadini, professionisti, ma anche le stesse PA e aziende, consapevoli e aggiornati sui nuovi strumenti a disposizione è certamente il primo fondamentale passo da compiere. Positive le risorse del Fondo innovazione venture capital gestito da Cdp, per favorire la nascita di startup e sostenere chi già opera in ambito IA.”

Anche Di Costanzo punta il dito su privacy, dati e sanità. “La difesa dell’identità, della privacy e dei dati saranno temi cruciali nei prossimi anni, giusto lavorare su regole e soprattutto su conoscenza e utilizzo corretto degli strumenti. C’è poi il capitolo della sanità digitale, con nuove prospettive in termini di efficacia delle cure e assistenza territoriale. Un quadro generale, quindi, molto positivo che va a inserirsi in un contesto, quello italiano, in cui esistono già numerose sperimentazioni e buone pratiche pubbliche sull’AI, sul metaverso, sulla realtà virtuale e mista, con l’obiettivo di offrire servizi ai cittadini e supportare l’attività della persona all’interno delle organizzazioni pubbliche e private”.

Fondazione Italia Digitale vuole essere luogo di confronto, di sperimentazione e di crescita del digitale, temi di cui si discuterà nella prossima edizione del Festival del Digitale Popolare di Torino del 4-5-6 ottobre 2024.

Articoli correlati

Articolo 1 di 4