La tecnologia avanzata (social, web, email) costringe di fatto ogni singolo soggetto ad affidare i propri dati personali a dispositivi e piattaforme in rete, esponendolo pertanto a potenziali ma consistenti rischi inerenti alla propria privacy.
Il rischio di invasione della sfera privata è ulteriormente ampliato con l’uso sempre più massivo dell’AI, soprattutto quella generativa, al punto che le informazioni rilasciate in tali aree di accesso consentono alle stesse di apprendere il modo di ragionare di un individuo, le sue abitudini, i suoi bisogni e le sue preferenze.
Gli algoritmi di AI e la privacy
Appresi i dati, gli algoritmi di AI possono infatti generarne di nuovi e adattare di conseguenza il loro comportamento, influenzando potenzialmente le scelte di vita di un individuo in maniera sempre più invasiva e non sempre trasparente o comunque autorizzata.
Considerare pertanto il ruolo dell’AI, rispetto alla protezione della privacy, è fondamentale al fine di garantire che le nuove tecnologie generative non utilizzino in maniera illegittima i dati personali così da evitare, attraverso il sistema di mascheramento nel web, un uso scorretto delle nuove, ancorché stimolanti e financo utili, tecnologie.
I rischi di data breach
Si impone quindi di ragionare sul noto bilanciamento degli interessi in gioco, adottando una indagine preventiva dei rischi e la conseguente adozione delle relative misure di protezione, affinché non si creino data breach che, veicolando a velocità impressionante nella rete, ledano in modo irreparabile il noto principio di stampo anglosassone, ormai ereditato nel nostro sistema giuridico sin dal 1996 e poi con il successivo GDPR 679/2016, definito il general right “to be let alone” (il diritto di essere lasciati da soli).
L’AI Act adottato dal Consiglio dell’Unione europea il 21 maggio 2024 ha assunto un connotato di primaria importanza poiché, si può dire a livello mondiale, costituisce il primo asset codicistico di una legge che regola in via generale, ma anche attuativa per le ragioni che seguiranno, la tematica della diffusione dei programmi di AI (con particolare attenzione a quella di natura generativa).
Sul medesimo canovaccio utilizzato dai lavori dell’UE all’epoca dell’approvazione del General Data Protection Regulation del 2016 (GDPR 679), il legislatore europeo ha elaborato l’AI Act prevedendo, sostanzialmente, una parte di design della norma volta all’inquadramento, alla gradazione e classificazione piramidale delle categorie di rischio per i sistemi di intelligenza artificiale (inaccettabile, alto, limitato e minimo), e una parte di default volta a contenere i danni conseguenti al data breach, e comunque idealmente finalizzata a rendere meno gravoso l’onere della prova in capo al danneggiato che vuol far valere giudizialmente il risarcimento del danno derivante dal data breach.
Privacy by design
Sotto il primo profilo, quello del design, l’AI Act prevedendo le classificazioni dei rischi, altro non fa se non autorizzare oppure non autorizzare programmi di AI che, in base al loro funzionamento di scopo, vanno ad invadere in modo inaccettabile, alto, limitato e minimo i diritti dell’uomo.
Dinanzi alla classificazione è facilmente intuibile come la categoria di rischio inaccettabile sostanzialmente impedisce la funzionalità, e quindi la messa in commercio, di quei programmi di AI che per la loro settoriale indagine possono potenzialmente violare i diritti fondamentali dell’UE o i diritti umani, come ad esempio il c.d. punteggio sociale (volto ad assegnare a ogni cittadino un punteggio rappresentante il suo “credito sociale”).
La classificazione dei rischi
La classificazione di rischio elevato ricomprende invece un’ampia gamma di sistemi che potrebbero causare danni significativi in caso di malfunzionamento: sistemi di identificazione biometrica e riconoscimento facciale, sistemi di valutazione del credito e scoring, chatbot medici. Per questi sistemi, l’AI Act impone requisiti rigorosi per la loro messa in commercio: valutazioni e test di conformità obbligatori, obbligo di adozione di misure di sicurezza e gestione del rischio, trasparenza sulla modalità di funzionamento del sistema, supervisione umana.
La classificazione dei rischi limitati comprende invece tutti quei sistemi che presentano un rischio minore che non hanno, potenzialmente, accesso ai dati sensibili degli utenti, escludendo, o rendendo fortemente ridotto, le implicazioni nell’ambito privacy. Si pensi per esempio a una chatbot programmata per rispondere a domande frequenti quale orario di apertura di una attività commerciale, disponibilità di prodotti e politiche di resi.
Infine, la classificazione di rischio minimo o nullo, include quei sistemi che non hanno impatto alcuno sui diritti, i dati e la sicurezza delle persone, come ad esempio calcolatrici o videogiochi (quelli semplici non quelli collegati in modo interattivo), che, non richiedendo il trattamento di alcun dato sensibile limitandosi ad informazioni generiche, eliminano pressoché alla radice qualsivoglia interazione con la privacy.
La classificazione di design è il primo parametro di riferimento che l’AI Act prevede ai fini di esaltare quelli che devono essere i due principali presupposti sui quali un sistema di AI deve fondarsi in base all’ambito di dati ai quali ha potenzialità di accedere:
- la trasparenza, richiedendo ai fornitori di sistemi di intelligenza artificiale di fornire informazioni chiare e accessibili su come funzionano i loro sistemi;
- la necessità di una supervisione umana posto che l’AI Act non sostituisce affatto la supervisione umana, ma piuttosto la rafforza. In particolare, per i sistemi ad alto rischio, l’intervento umano è sempre richiesto per garantire che questi sistemi siano utilizzati in modo sicuro e responsabile.
Privacy by default
Alla parte di design si allinea la parte di default attraverso un sistema di presunzioni semplici poste alla base del rapporto probatorio che mira a rafforzare la tutela del fruitore del programma di AI, aggravando invece la posizione probatoria sia del produttore sia dell’utilizzatore del programma di AI.
Sostanzialmente il rapporto probatorio che sta alla base della dimostrazione del data breach consente di poter ritenere il soggetto leso dalla violazione favorito, poiché lo stesso è chiamato solo a dimostrare il nesso di causalità fra l’evento del danno e l’utilizzo del sistema AI (il default dell’input e dell’output), nel mentre rimane fortemente a carico del produttore / utilizzatore del software l’obbligo di dimostrare come il programma che ha causato la violazione era stato comunque testato in modo tale da prevenire ogni forma di default, secondo il noto brocardo processuale del “più probabile che non”.
Il tutto nell’ambito di un giudizio ex post che il giudicante sarà chiamato a svolgere dinanzi sia all’approfondimento dei criteri che devono essere accertati come esistenti ex ante, rappresentati dai principi già enunciati della trasparenza, piuttosto che della supervisione umana che, laddove carente, è causativa del default.
La creazione di una breach room
Se pare eccessivo parlare di responsabilità oggettiva, posto che comunque si rimane sempre nell’ambito delle presunzioni semplici (che consentono quindi l’ammissione di prova contraria), l’intento della Commissione UE è esattamente quello di giungere a siffatto profilo di responsabilità in capo ai produttori / utilizzatori di software AI, attraverso un percorso temporale di un quinquennio, sulla scorta di quelle indagini conseguenti alla raccolta dei dati a cura della preposta Agenzia europea, chiamata da un lato a super – vigilare i programmi di AI sino a immaginare una certificazione di siffatti programmi prima della loro messa in commercio, piuttosto che rendere statisticamente probanti i fenomeni di data breach accertati in Europa in riferimento all’utilizzo dell’AI onde creare una vera a propria breach room che dovrà servire, sostanzialmente, a enucleare le casistiche più rilevanti e fungere da correttore al fine di evitare il ripetersi del default.
Il ruolo dell’EDPB
È proprio in questo perimetro di tutela rafforzata dei cittadini UE (ma anche degli extra – UE che comunque operano in territorio comunitario) che il Comitato europeo per la protezione dei dati (EDPB) nel mese di dicembre 2024 ha adottato una dichiarazione sul secondo rapporto della Commissione europea relativa all’applicazione del regolamento generale sulla protezione dei dati (GDPR).
L’EDPB pone quindi un cardine essenziale per la raccolta delle relazioni della Commissione europea e dell’Agenzia per i diritti fondamentali al fine, proprio, di rafforzare la certezza giuridica e la piena compliance della legislazione digitale dei paesi UE (ma anche extra UE che operano comunque in Europa) con il GDPR, così strutturando una stretta connessione fra l’applicazione del GDPR e l’AI Act, con ciò volendo vincolare in un unicum di legalità strategico sul trattamento, e la tutela, dei dati nell’UE e il pacchetto di servizi digitali di AI.
L’EDPB pone anche un ulteriore e importante principio di lavoro consistente nella programmazione di una sorta di “sportello informativo” sulla normativa AI, finalizzato a rendere edotte le categorie dei non esperti (quindi il concetto di “consumatore” che torna prepotentemente ad affermarsi nel perimetro di tutela UE) ma, anche, delle piccole e medie imprese (PMI) le quali subiranno il maggior impatto sugli adeguati assetti (nel perimetro della triade ESG).
Il tutto alla luce sia della direttiva Nis2 quale legislazione dell’UE in materia di cibersicurezza che prevede misure giuridiche per rafforzare il livello generale di controllo nell’UE, sia della direttiva CSRD riguardante la rendicontazione societaria di sostenibilità, concernente l’obbligo di comunicazione di informazioni di carattere non finanziario per le imprese di grandi dimensioni, ma che andranno a riguardare anche le PMI ricomprese nella c.d. catena dei valori produttivi, laddove le PMI siano comunque parte della stessa rispetto alla grandi imprese.
Conclusioni
Il contributo offerto dall’UE sul doppio binario AI e privacy rappresenta pertanto una forte scommessa del legislatore europeo il quale mira a creare, nel contesto del vecchio continente, uno scenario di sicurezza cyber che rappresenti una eccellenza a livello mondiale per contemperare l’operatività della tecnologia AI nel pieno rispetto della tutela dei diritti fondamentali della persona e quindi della privacy.