A distanza di oltre due anni dalla proposta di regolamento volta a stabilire regole armonizzate sull’intelligenza artificiale presentata dalla Commissione Europea in data 21 aprile 2021, lo scorso 14 giugno il Parlamento Europeo ha adottato la propria posizione negoziale, presentando una serie di emendamenti al testo dell’Artificial Intelligence Act.
Entro la fine del 2023, l’Unione Europea auspica di adottare il provvedimento nella sua versione definitiva: all’esito dei “triloghi”, ossia i negoziati con Stati membri e Commissione Europea, l’intelligenza artificiale sarà coperta da un quadro giuridico senza precedenti a livello globale, dando conclusione a un percorso avviato nel 2018.
Intelligenza artificiale tra rischi e benefici
L’intelligenza artificiale, nella più recente versione del testo, è definita come “un sistema automatizzato progettato per operare con livelli di autonomia variabili e che, per obiettivi espliciti o impliciti, può generare output quali previsioni, raccomandazioni o decisioni che influenzano gli ambienti fisici o virtuali”.
Promuoverne lo sviluppo e l’uso sicuro, affidabile ed etico rientra tra gli obiettivi delle istituzioni, sul presupposto che i sistemi di intelligenza artificiale possono portare a benefici a livello economico, ambientale e sociale, nei settori più disparati quali in ambito sanitario, dei media, dello sport, dei servizi pubblici per esempio attraverso la riduzione delle emissioni, dell’istruzione, e così via. Ciò tuttavia presuppone un’adeguata protezione dei diritti fondamentali dell’Unione Europea e dei valori su cui si fonda.
Non dobbiamo infatti dimenticare che questa sofisticata tecnologia, se non utilizzata correttamente o comunque se impiegata in modo distorto ed abusivo, può avere effetti negativi non solo con riferimento alla sfera privata, ma anche con inevitabili riflessi nella sfera pubblica. Si pensi per esempio alle conseguenze sulla democrazia derivanti dalla disinformazione che spesso viene veicolata proprio attraverso l’intelligenza artificiale.
Un regolamento risk-based
L’esigenza di promuovere la fiducia verso i sistemi di intelligenza artificiale tutelando al contempo i diritti fondamentali ed i valori dell’Unione Europea ha portato all’elaborazione di regole parametrate all’intensità del livello di rischio connesso all’AI.
Al riguardo, è possibile cogliere una tendenza riscontrata anche in altri provvedimenti adottati dalle istituzioni comunitarie in materia di tecnologie digitali: il cosiddetto risk based approach.
Soffermandoci sull’Ai Act, dopo aver delineato un insieme di principi generali applicabili a tutti i sistemi di intelligenza artificiale, tra i quali troviamo il principio di equità e non discriminazione, il rispetto dell’ambiente e la trasparenza, in modo che tutti i sistemi siano controllabili dall’uomo, accessibili, sostenibili e soprattutto rispettosi dei diritti fondamentali, vengono infatti individuate diverse categorie di rischio, a cui corrisponde una diversa disciplina per l’immissione sul mercato:
- sono vietati i sistemi di intelligenza artificiale a rischio inaccettabile, tra cui si collocano i sistemi di AI in grado di manipolare i comportamenti umani o di identificare da remoto e in tempo reale le persone, in quanto considerati pericolosi e contrari ai valori dell’Unione;
- i sistemi di intelligenza artificiale ad alto rischio, a loro volta classificabili in (i) sistemi utilizzati nei prodotti già soggetti alla normativa armonizzata dell’Unione sulla sicurezza dei prodotti e (ii) sistemi operanti nelle otto aree soggette a registrazione in un’apposita banca dati, benché rechino un elevato pericolo di pregiudizio, non sono vietati, purché siano sottoposti a una stringente valutazione non solo nella fase precedente l’immissione sul mercato, ma anche durante l’intero ciclo di vita, in modo da assicurare un alto livello di protezione;
- i sistemi di intelligenza artificiale a rischio limitato, come i “deepfake”, ossia quei sistemi in grado di modificare i contenuti di immagini, audio e video in modo tale da raffigurare persone in comportamenti non reali – in cui non è inusuale imbattersi navigando sui social network – devono essere innanzitutto improntati al principio di trasparenza. L’utente, deve cioè essere messo nelle condizioni di poter comprendere la natura del contenuto, non autentico, e di assumere al riguardo decisioni consapevoli.
AI Act, gli obblighi per gli operatori
Coerentemente all’approccio risk based adottato dalle istituzioni comunitarie, si percepisce la volontà del regolamento di responsabilizzare tutti gli operatori, introducendo obblighi differenziati lungo tutta la catena di fornitura di un sistema di intelligenza artificiale ad alto rischio, in considerazione dei rispettivi ruoli.
È possibile osservare che la struttura della proposta di regolamento rifletta quanto già previsto in altri atti di armonizzazione sulla sicurezza dei prodotti – si pensi alla direttiva bassa tensione, alla direttiva sulla compatibilità elettromagnetica o alla direttiva macchine -, con i dovuti adattamenti in considerazione della tecnologia impiegata in tali casi.
Il fornitore di un sistema di intelligenza artificiale è tenuto a predisporre la documentazione tecnica e a valutare la conformità ai requisiti di sicurezza essenziali imposti dal regolamento – secondo la procedura pertinente e ricorrendo a un organismo notificato se necessario -, redigere in forma fisica o elettronica una dichiarazione di conformità secondo il format previsto e apporre la marcatura CE, fisica o digitale.
Analogamente, anche importatori e distributori saranno tenuti a verificare il rispetto delle prescrizioni del regolamento da parte dei fornitori.
Riflessioni conclusive
Innanzitutto, è possibile osservare come non sia una scelta casuale quella di adottare per lo scopo un atto giuridico nella forma del regolamento. Infatti, a differenza delle direttive, spesso utilizzate dall’Unione Europea per riavvicinare e armonizzare la legislazione degli Stati membri, i regolamenti europei trovano diretta applicazione e non necessitano di recepimento.
Da ciò traspare la volontà delle istituzioni di predisporre un impianto normativo uniforme a livello comunitario, come tale idoneo a superare la frammentazione attualmente esistente e a garantire una maggiore certezza del diritto per tutti gli operatori.
Alla base vi è sicuramente la consapevolezza della complessità e delicatezza della materia, che presenta implicazioni non indifferenti sulla sfera privata degli individui, ma anche sugli interessi pubblici quali la democrazia, lo Stato di diritto e l’ambiente.
L’intelligenza artificiale è frutto del progresso tecnologico degli ultimi anni e ha già un ruolo primario nella nostra quotidianità. Molto spesso non ci accorgiamo di quante applicazioni di sistemi di intelligenza artificiale siano già presenti nella vita di tutti i giorni e non solo nei settori economici. Si pensi all’esperienze personalizzate in rete o ai sistemi di risparmio energetico installati nelle nostre case. La proposta di regolamento rappresenta quindi la risposta alle esigenze provenienti dallo sviluppo tecnologico e dalle relative applicazioni. Ne rappresentano un chiaro esempio le norme specifiche dedicate ai deepfake, ma anche ai sistemi di machine learning come chatGPT che è in grado di simulare conversazioni e che solo pochi mesi fa ha subito blocco ad opera del Garante per la protezione dei dati personali per la raccolta illecita di dati e per l’assenza di sistemi per la verifica dell’età dei minori.
È quindi evidente che non si vogliano ostacolare modelli di intelligenza artificiale generativi, ma al contrario consentirne l’utilizzo nel rispetto di requisiti di trasparenza e sicurezza, informando in primo luogo l’utente circa la natura del sistema.