Normative

Approvato il Ddl sull’intelligenza artificiale, ecco tutte le novità



Indirizzo copiato

L’Italia è il primo paese europeo a dotarsi di una legge nazionale. Scelto un sistema di governance “duale”: Acn, Agenzia per la cybersicurezza nazionale e Agid, con compiti distinti. Confermata la dote economica di un miliardo di euro tramite investimenti effettuati attraverso il Fondo di sostegno al venture capital. Inserito il reato di “Illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale”

Pubblicato il 24 apr 2024



DDL AI

L’Italia ha la sua legge sull’intelligenza artificiale. Con quasi un mese di ritardo rispetto a quanto precedentemente annunciato dal Governo (“fine marzo”), il 23 aprile il Consiglio dei Ministri ha dato il via libera al disegno di legge sull’intelligenza artificiale.

Il sottosegretario all’Innovazione Alessio Butti, con il Dipartimento per la Trasformazione Digitale, avrà la delega sul coordinamento della strategia nazionale sull’AI, aggiornata ogni due anni.

Conferenza stampa del Consiglio dei Ministri n. 78
Video: conferenza stampa del Cdm – 23 aprile 2024

Un sistema di governance “duale”

L’AI Act, il regolamento europeo che disciplina la materia già approvato dal Parlamento Ue e in via di definitiva adozione, prevede che ciascuno Stato membro si doti di un’autorità nazionale per l’intelligenza artificiale, senza definire in modo rigido il tipo di ente. Il governo italiano ha scelto un sistema di governance “duale”: l’Acn, Agenzia per la cybersicurezza nazionale, guidata dal prefetto Bruno Frattasi, avrà il compito di vigilare sull’applicazione dell’intelligenza artificiale, con poteri ispettivi e sanzionatori; l’Agid, Agenzia per l’Italia digitale, di cui è direttore generale Mario Nobile, si occuperà dell’esecuzione della strategia nazionale, di promuovere l’innovazione e lo sviluppo dell’AI, e di definire le procedure e a esercitare le funzioni e i compiti in materia di valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di intelligenza artificiale.

Le due Autorità dovranno “garantire l’applicazione e l’attuazione della normativa nazionale e dell’Unione europea in materia di intelligenza artificiale”. Ciascuna per le rispettive competenze, assicureranno secondo le intenzioni del governo l’istituzione e la gestione congiunta di spazi di sperimentazione finalizzati alla realizzazione di sistemi di intelligenza artificiale conformi alla normativa nazionale e dell’Unione europea, sentito il Ministero della Difesa per gli aspetti relativi ai sistemi di intelligenza artificiale impiegabili in chiave duale.

La strategia nazionale per l’intelligenza artificiale

Il Ddl introduce la Strategia nazionale per l’intelligenza artificiale, un documento che garantisce la collaborazione tra pubblico e privato, coordinando le azioni della pubblica amministrazione in materia e le misure e gli incentivi economici rivolti allo sviluppo imprenditoriale ed industriale. I risultati del monitoraggio vengono trasmessi annualmente alle Camere.

Il “carve-out” su sicurezza e difesa nazionale: come per l’executive order del presidente Usa Biden e dell’AI Act europeo, le questioni di sicurezza nazionale e difesa, e le attività svolte dalle forze armate e dalle forze di polizia in questi ambiti, sono escluse dall’ambito applicativo del Ddl.

Ddl AI: un fondo da un miliardo di euro

Confermata la dote economica annunciata dalla premier Meloni a marzo scorso: un miliardo di euro, che mette l’Italia ai primi posti in Europa, dopo Germania e Francia, in termini di impegno finanziario pubblico. Gli investimenti saranno effettuati attraverso il Fondo di sostegno al venture capital.

Il Ministro delle Imprese e del Made in Italy, Adolfo Urso, ha spiegato che il Fondo innovazione servirà a facilitare la nascita e la crescita di start up innovative che utilizzino i processi dell’intelligenza artificiale. “Abbiamo 4 milioni di PMI – ha dichiarato Urso – e dobbiamo metterle nella condizione di utilizzare questa tecnologia sfidante. L’obiettivo è creare un mercato di AI equo e senza barriere all’ingresso. È una tematica centrale il coinvolgimento delle PMI nel processo innovativo che offre l’AI”.

Nell’articolo 21 del disegno di legge, dedicato a “investimenti nei settori di intelligenza artificiale, della cybersicurezza e quantum computing”, si legge che è “autorizzata fino all’ammontare complessivo di un miliardo di eurol’acquisizione di partecipazioni dirette o indirette, grazie a Cdp Venture Capital, in startup e piccole e medie imprese innovative, con sede in Italia, che operano in settori chiave: AI, cybersecurity, quantum computing, telecomunicazioni e 5G, mobile edge computing e web3. Si tratta degli stessi settori previsti nel decreto del 16 febbraio 2024.

I fondi potranno coprire dalla fase di seed a quella di scaleup, così come il supporto a imprese più grandi per creare i cosiddetti “campioni nazionali”, e finanziare “la creazione di poli di trasferimento tecnologico e programmi di accelerazione”.

L’ambito civile e penale: l’aggravante dell’AI

Il Ddl sull’intelligenza artificiale licenziato dal governo interviene anche nell’ordinamento giudiziario, in ambito civile, amministrativo e penale, delegando il governo ad adottare, entro 12 mesi, uno o più decreti legislativi per regolamentare l’uso illecito dell’intelligenza artificiale. In particolare, saranno introdotti nuovi reati e nuovi strumenti cautelari per inibire la diffusione e rimuovere i contenuti generati illecitamente con l’aiuto di sistemi di intelligenza artificiale, nonché una nuova aggravante legata all’uso di AI nel compimento di determinati reati.

Il codice penale sarà modificato con l’inserimento dell’art. 612-quater, “Illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale”, che prevede una pena da uno a cinque anni di reclusione.

L’uso dell’AI in campo penale è escluso, salvo per l’organizzazione e la semplificazione del lavoro e per la ricerca. “È sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento”, in modo da escludere che sia un algoritmo a decidere della validità delle prove o della colpevolezza di qualcuno.

Sul fronte della tutela degli utenti, dati personali e informazione, il ddl prevede che i contenuti generati o modificati dall’intelligenza artificiale, “alterati in modo tale da presentare come reali dati, fatti e informazioni che non lo sono” dovranno avere un bollino, un marchio visibile e riconoscibile con l’acronimo “IA”. A meno che non si tratti di un programma manifestamente “creativo, satirico, artistico o fittizio, fatte salve le tutele per i diritti e le libertà dei terzi”. Gli autori potranno sempre, attraverso una procedura di opt-out, chiedere che le proprie opere non siano usate per addestrare l’intelligenza artificiale. Restano salve le prerogative del Garante per la protezione dei dati personali e l’applicazione del GDPR, il regolamento europeo per la protezione dei dati personali.

L’uso dell’AI per la salute

L’uso dell’intelligenza artificiale per prevenzione, diagnosi e cura di malattie, sviluppo di farmaci, terapie e tecnologie riabilitative, realizzazione di apparati medicali deve essere sempre comunicato all’interessato attraverso un’informativa che potrà essere pubblicata sul sito web del titolare del trattamento. L’Agenas, Agenzia nazionale per i servizi sanitari regionali, progetterà e realizzerà la piattaforma di intelligenza artificiale per supporto alle finalità di cura e di assistenza territoriale, alimentata con i dati strettamente necessari per l’erogazione dei servizi.

Il Ddl istituisce presso il Ministero del Lavoro e delle Politiche Sociali l’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro con il compito di definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito lavorativo, monitorare l’impatto sul mercato del lavoro, identificare i settori lavorativi maggiormente interessati da questa rivoluzione tecnologica.

I commenti

Massimiliano Masnada, partner dello studio legale internazionale Hogan Lovells

Chi attendeva un elenco più specifico delle misure concrete è stato deluso. Probabilmente si dovrà aspettare i decreti delegati“.

“A prima vista il Ddl è notevolmente migliorativo rispetto alla bozza, per la verità non ufficiale, circolata nelle scorse settimane, rispetto alla quale vi erano state molte (giuste) voci critiche. In generale, le norme intervengono in cinque ambiti: la strategia nazionale, le autorità nazionali, le azioni di promozione, la tutela del diritto di autore, le sanzioni penali. Si prevede, inoltre, una delega al governo per adeguare l’ordinamento nazionale al Regolamento UE in materie come l’alfabetizzazione dei cittadini in materia di IA (sia nei percorsi scolastici che in quelli universitari) e la formazione da parte degli ordini professionali per professionisti e operatori. La delega riguarda anche il riordino in materia penale per adeguare reati e sanzioni all’uso illecito dei sistemi di IA. A mio parere, al di là delle affermazioni di principio con cui non si può non essere d’accordo, continuano ad esserci alcune cose che potrebbero essere migliorate nell’ottica di uno sviluppo coerente ed efficace dell’IA in Italia. Prendendo in esame le disposizioni di settore, ciò che mi convince di meno sono le previsioni in ambito sanitario e della ricerca scientifica. Si afferma giustamente, a mio parere, che i trattamenti di dati, anche personali, eseguiti da soggetti pubblici e privati senza scopo di lucro per la ricerca e la sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale per finalità terapeutica e farmacologica, sono dichiarati di rilevante interesse pubblico. Ciò significa, quindi, che l’uso di dati dei pazienti per l’allenamento degli algoritmi di IA nell’ambito della ricerca scientifica è esente dal consenso degli interessati. Tuttavia, non si comprende perché questa previsione valga soltanto per i soggetti pubblici e gli enti non a scopo di lucro, lasciando scoperta una parte rilevantissima della ricerca scientifica che viene effettuata da istituti privati o anche società farmaceutiche che agiscono da sponsor rispetto a studi e ricerche che necessitano di fondi che i soggetti pubblici non sono in grado di reperire. Peraltro, sembrerebbero esclusi tutti quegli istituti e centri di ricerca privati, anche se convenzionati con le regioni e le ATS. È auspicabile un chiarimento in tal senso. Inoltre, con riferimento all’uso secondario dei dati per la ricerca medica, seppur si afferma il principio che i sistemi di intelligenza artificiale contribuiscono al miglioramento del sistema sanitario e di cura delle malattie nel rispetto della trasparenza e dei diritti fondamentali, quando si parla di sperimentazione e ricerca si introduce un regime autorizzatorio rispetto all’uso secondario dei dati medici che è incoerente con il diritto comunitario e anche con la recente modifica dell’art. 110 del Codice Privacy, approvata proprio ieri con la conversione in legge del DL PNRR (modifica questa, peraltro, non esente da critiche poiché troppo debole rispetto alle esigenze del settore). Nel Ddl IA è infatti previsto che l’uso dei dati personali dei pazienti per i sistemi di IA, oltre all’approvazione dei comitati etici interessati, deve essere comunicato al Garante per la protezione dei dati personali e che i trattamenti possono essere iniziati decorsi trenta giorni dalla predetta comunicazione se non oggetto di blocco disposto dal Garante medesimo. Questa previsione è palesemente contraria al GDPR e al Codice Privacy laddove è esclusa l’approvazione del Garante, anche solo sotto forma di silenzio-assenso, se il trattamento è necessario per un interesse pubblico ovvero è previsto da una legge che gli attribuisce una finalità pubblica rilevante. Inoltre, anche la citata recente riforma dell’art. 110 del Codice Privacy elimina la necessità di ricorrere a consultazione preventiva del Garante in caso di uso secondario dei dati medici per la ricerca medica, rinviando al rispetto di regole deontologiche di settore che il Garante dovrà adottare in ragione delle proprie competenze. È palese la incoerenza tra le due norme approvate peraltro lo stesso giorno.

L’altra disposizione del Ddl che merita attenzione è quella relativa agli investimenti per favorire lo sviluppo di tecnologia basata sull’IA. La norma appare poco di più di una affermazione di principio; si prevedono investimenti per un ammontare complessivo di 1 miliardo di euro, nei settori dell’intelligenza artificiale, della cybersicurezza e del quantum computing delle telecomunicazioni e delle tecnologie per queste abilitanti (…) Chi attendeva un elenco più specifico delle misure concrete è stato deluso. Probabilmente si dovrà aspettare i decreti delegati. Anche la somma stanziata non sembra all’altezza di quello che stanno facendo gli altri Stati UE (lascerei stare USA e Cina che giocano in un altro campionato). La Francia con Macron ha annunciato investimenti per circa 7 miliardi. In Germania, la sola Microsoft ha annunciato investimenti nelle infrastrutture per il calcolo quantistico per circa 3.2 miliardi. È pur vero che per competere con USA e Cina, oltre che a normative comuni, serve anche un piano di investimenti da parte dell’UE. In tal senso, mi rimetto alle sagge parole di qualche giorno fa di Mario Draghi che ha auspicato investimento in tecnologia per 500 miliardi. Certo è che questa partita politica in UE appare in salita se si vuole promuovere ‘una via italiana’ all’IA. Ma su tali ragionamenti di politica industriale, come al solito, occorrerà distinguere i proclami dalle cose concrete che riusciremo a fare.”

Francesco Di Costanzo, Presidente di Fondazione Italia Digitale

Un quadro generale, quindi, molto positivo che va a inserirsi in un contesto, quello italiano, in cui esistono già numerose sperimentazioni e buone pratiche pubbliche sull’AI…”

“Diverse le novità, a partire dalla previsione di una delega all’Esecutivo in tema di alfabetizzazione digitale, con focus ovviamente sull’IA (sia nei percorsi scolastici che in quelli universitari), arrivando alla formazione da parte degli ordini professionali e degli operatori. Una decisione importante, perché rendere i cittadini, professionisti, ma anche le stesse PA e aziende, consapevoli e aggiornati sui nuovi strumenti a disposizione è certamente il primo fondamentale passo da compiere. Positive le risorse del Fondo innovazione venture capital gestito da Cdp, per favorire la nascita di startup e sostenere chi già opera in ambito IA. La difesa dell’identità, della privacy e dei dati saranno temi cruciali nei prossimi anni, giusto lavorare su regole e soprattutto su conoscenza e utilizzo corretto degli strumenti. C’è poi il capitolo della sanità digitale, con nuove prospettive in termini di efficacia delle cure e assistenza territoriale. Un quadro generale, quindi, molto positivo che va a inserirsi in un contesto, quello italiano, in cui esistono già numerose sperimentazioni e buone pratiche pubbliche sull’AI, sul metaverso, sulla realtà virtuale e mista, con l’obiettivo di offrire servizi ai cittadini e supportare l’attività della persona all’interno delle organizzazioni pubbliche e private. Fondazione Italia Digitale è attenta alle novità e ad essere luogo del confronto, della sperimentazione, della crescita del digitale. Questi saranno temi di cui discuteremo nella prossima edizione del Festival del Digitale Popolare di Torino del 4-5-6 ottobre”.

Articoli correlati

Articolo 1 di 4