Nelle ultime settimane di aprile 2022, il Governo italiano ha esaminato la Proposta di Regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale e modifica alcuni atti legislativi dell’Unione del 21 aprile 2021. La Proposta intende disciplinare le applicazioni che utilizzano sistemi di intelligenza artificiale, di tipo machine learning e deep learning, regolandole secondo i diversi profili di rischio, per ridurre al minimo i pericoli per la sicurezza e i diritti fondamentali che potrebbero essere generati dai sistemi di AI prima della loro immissione sul mercato dell’UE.
Una lista di quattordici punti di discussione
Viene quindi presentata una “piramide di rischio” ascendente (che va dal rischio basso/medio a quello elevato, fino al rischio inaccettabile) che prevede una serie di meccanismi di limitazione e mitigazione del rischio, fino ad arrivare alla proibizione di alcuni sistemi di AI (come ad esempio la manipolazione cognitiva che potrebbe causare danni fisici o psicologici ovvero sfruttare la vulnerabilità dovuta all’età o alla disabilità, oppure i sistemi di valutazione sociale dei cittadini che possono produrre distorsioni, nonché i sistemi di identificazione facciale usati indiscriminatamente dalle forze dell’ordine in luoghi aperti al pubblico). In questo contesto il Governo italiano ha elaborato una lista di quattordici punti di discussione della Proposta, che saranno presentati alla Commissione, e che riguardano – inter alia:
- la migliore definizione dell’AI
- la maggiore partecipazione degli Stati nella governance del settore
- la previsione dell’indipendenza per chi è chiamato a svolgere funzioni di verifica di compliance o audit del sistema
- il miglioramento del coordinamento tra testo del regolamento e altri testi normativi, come il regolamento sulla privacy e altri impianti normativi.
Fra questi temi non è stato espressamente citato il tema della proprietà intellettuale e neppure quello, che appare cruciale, della trasparenza degli algoritmi, che però sembrano stare veramente al cuore del futuro dell’AI e dello sviluppo di cui l’AI dovrebbe essere responsabile. Le due questioni sono interconnesse, dal momento che gli algoritmi che gestiscono l’AI sono tendenzialmente proteggibili dalla proprietà intellettuale, in particolare come segreto commerciale: si tratta quindi di bilanciare da un lato la tutela della creazione, che è al cuore del sistema di incentivi allo sviluppo dell’innovazione, e dall’altro lato la conoscibilità e controllabilità dell’AI e l’accesso ai suoi output.
La trasparenza dei sistemi di AI
Attualmente la Proposta prevede all’art. 13 una obbligazione di trasparenza per i sistemi di AI ad alto rischio (come il riconoscimento facciale, o l’AI usata in infrastrutture critiche, in contesti di educazione, valutazione dei lavoratori, emergenza, assistenza sociale, valutazione del credito, per le forze dell’ordine, la polizia di frontiera e per i tribunali). Sembra però che il tema della trasparenza dovrebbe essere oggetto di un più attento esame, per valutare se e in quali contesti, anche ulteriori rispetto a quelli cd. ad alto rischio, si debba fare in modo che l’algoritmo utilizzato sia in tutto o in parte conoscibile e quindi controllabile, e se ciò debba valere anche per i dati utilizzati dall’algoritmo stesso.
Il caso di Twitter
È di questi giorni la notizia che Elon Musk, acquisendo Twitter, abbia dichiarato di voler rendere pubblici gli algoritmi utilizzati, in modo tale che sia possibile comprendere come il social network si comporta e quindi valutare se possa o meno generare un certo tipo di effetti (come, per esempio, quello di privilegiare le risposte divisive, ovvero con un determinato contenuto, etc.). La notizia della decisione sulla trasparenza di Musk è stata accolta da un generale favore, a dimostrazione di quanto sia sempre più sentita dal pubblico l’importanza che gli algoritmi utilizzati in ampi settori della vita sociale siano accessibili. La scelta per la trasparenza dovrebbe comportare la necessità che tendenzialmente tutti i sistemi di intelligenza artificiale (o almeno la maggior parte) siano progettati in modo tale che gli stadi evolutivi del processo realizzati dalla macchina siano accessibili ed espressi in linguaggio comprensibile dall’essere umano. Deve infatti essere del tutto scongiurata l’ipotesi che i sistemi di AI si sviluppino secondo processi che non sono intellegibili o possano diventare non intellegibili, e quindi non controllabili, da parte dell’essere umano.
La decisione robotizzata (ovvero l’algoritmo) deve essere “conoscibile”
A questo proposito va anche ricordato che in particolare l’AI che utilizzi dati personali deve necessariamente rispondere a questa condizione, poiché in caso contrario potrebbe venire meno il requisito della adeguata informativa e conoscenza a favore dell’interessato. Sotto questo profilo, merita adesione e va quindi seguita la giurisprudenza nazionale che già si è espressa in questo senso, come la decisione della Suprema Corte, sentenza 14381/2021, secondo cui ai fini della liceità del trattamento di dati personali il consenso deve essere prestato in relazione a un trattamento chiaramente individuato, con la conseguenza che la scarsa trasparenza di un algoritmo impiegato per il calcolo di un rating reputazionale esclude la presenza di questo requisito.
Così anche la decisione del Consiglio di Stato, sentenza 881/2020, secondo cui il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) deve essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico. Nei casi ora indicati l’interesse collettivo dovrebbe quindi prevalere sulla protezione dei segreti industriali, in linea con quanto previsto dalla Direttiva 2016/943 sulla protezione del know-how riservato e delle informazioni commerciali riservate (segreti commerciali) contro l’acquisizione, l’utilizzo e la divulgazione illeciti, che al considerando 15 chiarisce l’importanza di individuare le circostanze nelle quali la protezione giuridica del segreto commerciale è giustificata, con ciò evidentemente alludendo all’esistenza di situazioni in cui tale protezione giuridica non sia giustificata o lo sia solo in un perimetro circoscritto. D’altro canto, si potrebbe ipotizzare di bilanciare l’esigenza di trasparenza e di connessa limitazione del segreto industriale con il riconoscimento di una limitata protezione dei risultati dell’AI, secondo le categorie specifiche del diritto della proprietà intellettuale che riguardano le protezioni cd. “minori”.
La protezione del diritto d’autore
Secondo l’orientamento prevalente negli ordinamenti occidentali, i risultati dell’AI non possono essere protetti come brevetti d’invenzione o come opere dell’ingegno quando integralmente realizzati dall’AI, senza alcun intervento umano, e ferma restando la proteggibilità secondo le regole generali dei sistemi informatici che costituiscono l’AI. Si ritiene infatti necessario che l’inventore o l’autore siano persone fisiche, con la conseguenza che solo invenzioni o opere dell’ingegno realizzate da esseri umani, con il semplice l’ausilio dell’AI, possono essere protette. Esistono tuttavia da tempo forme di tutela minori, come ad esempio quelle proprie del diritto connesso al diritto d’autore, che tipicamente mirano a tutelare gli investimenti di soggetti che ben possono essere diversi dalla persona fisica, come ad esempio la casa discografica (con il diritto connesso del produttore fonografico), l’investitore della banca di dati sui generis (con il diritto sui generis del costitutore della banca di dati), ecc. In questo senso appare possibile immaginare di costruire una tutela limitata che possa proteggere i soggetti che realizzano output di vario tipo tramite l’AI. La protezione sarebbe quindi gradata, partendo dalla concessione della vera e propria tutela autoristica o brevettuale all’autore persona fisica che realizza l’invenzione o l’opera dell’ingegno con il semplice ausilio dell’AI, passando per la tutela tipica di chi inventi o crei il sistema di AI, secondo le regole generali (anche qui si tratterà di invenzioni, opere dell’ingegno, segreti industriali), fino ad arrivare a una tutela connessa o sui generis (della durata di pochi anni) per chi utilizzi l’AI per produrre degli output effettuando un investimento rilevante.
Il paradigma del diritto sui generis sulle banche di dati può a questo proposito essere molto utile, sia per la definizione dell’investimento, sia per la perimetrazione della tutela (che per esempio non potrà mai impedire a terzi di ottenere il medesimo risultato tramite un proprio autonomo investimento). In ogni caso, la protezione dovrebbe essere condizionata alla pubblicità degli algoritmi e dei dati, nel senso chiarito sopra, e in questo modo si potrebbe forse realizzare un adeguato bilanciamento fra gli interessi in campo che da un lato garantisca sufficienti incentivi alla creazione delle nuove tecnologie, ma dall’altro lato preservi un adeguato controllo diffuso delle stesse, onde evitare effetti distorsivi o comunque pregiudizievoli.