Finora, il tema dell’etica è apparso in ogni articolo, conferenza ed evento sull’intelligenza artificiale. Infatti, le nuove frontiere raggiunte nel campo delle macchine intelligenti non devono prescindere dal concetto di responsabilità individuale e dal fatto che ormai deve essere considerata necessaria la competenza etica, una vera “soft engineer skill”. Stiamo assistendo a un progressivo aumento dell’uso di sistemi robotici in settori quali la magistratura, la medicina e l’amministrazione. Gli algoritmi affiancano e sostituiscono le decisioni umane. In particolare, il diritto è da molti anni considerato un fruttuoso campo di applicazione delle tecniche di intelligenza artificiale. In effetti, nell’ultimo decennio c’è stato un grande interesse per lo sviluppo di sistemi informatici dotati di ragionamento giuridico automatico, ossia di strumenti di Alternative Dispute Resolution (ADR).
I ricercatori sostengono che la prevedibilità del comportamento umano, la storia ristretta dei casi giudiziari e la combinazione algoritmica di precedenti possono indurre con successo l’intelligenza digitale a emettere giudizi assolutamente imparziali.
Gli interrogativi della giustizia predittiva
Tuttavia, la sostituzione dei giudici con sistemi automatizzati di giustizia predittiva solleva numerosi interrogativi. In generale ciò comporta un problema sul piano etico, prima ancora che giuridico, laddove la posizione giuridica di un soggetto, ossia la libertà personale, la privacy, il diritto all’informazione, la trasparenza e tutta una serie di diritti fondamentali entrano in contatto con un sistema decisionale non umano, ma di cui un umano deve ritenersi padre. L’ostacolo principale può essere trovato nell’impossibilità coscienziale della macchina, infatti è proprio la consapevolezza dell’azione che ci permette di fornire risposte ponderate.
Invero, una macchina intelligente esegue attività simili a quelle umane, ma l’ambizioso obiettivo di comprendere appieno come funziona il cervello umano e imitarlo attraverso automi e macchine deve ancora essere raggiunto.
La mancanza di coscienza e quindi l’incapacità di vedere e conoscere attraverso sensazioni e sentimenti, in sede giudiziaria può sfociare in una sentenza senza processo; ovvero, in una cyber decisione presa in assenza di garanzie processuali e quindi sull’oggettivazione di diritto.
La giustizia processuale si manifesta nella capacità, tipica di un vero giurista, di esaminare i molteplici e contraddittori aspetti che caratterizzano la realtà. Il ragionamento algoritmico, come il ragionamento giuridico, mira a risolvere un problema attraverso un numero finito di passaggi elementari predeterminati, entro un tempo ragionevole.
Tuttavia, c’è una differenza fondamentale: in un sillogismo giudiziario, le premesse sono sempre discutibili e il luogo dell’interpretazione dei fatti e delle regole è il processo. Pertanto, il diritto non deriva dalla natura statica delle norme positive, ma da un iter logico e pratico che consente di vagliare un problema controverso esplorando le alternative che esso presenta.
Mentre, il processo decisionale dell’algoritmo è puramente statistico: la macchina è in grado di effettuare una scelta solo sulla base dell’input umano. Chi progetta l’algoritmo (che verrà poi eseguito dal computer) sta compiendo delle scelte, volontariamente o involontariamente. Ciò avrà delle conseguenze per le persone che utilizzano queste tecnologie: o perché si affidano ciecamente ad esse (“ho letto a riguardo…”) o perché manca un solido approccio scientifico.
A questo proposito, si può affermare che una posizione scientifica è affidabile e solida non perché gli scienziati siano obiettivi, ma perché questa posizione è stata esposta a esigenti e approfondite osservazioni da parte di colleghi competenti coinvolti nella verifica della sua affidabilità. Traducendo questo principio nel contesto del ragionamento algoritmico, una macchina intelligente è considerata affidabile solo perché è stata esposta a una quantità enorme di dati. Tuttavia, in realtà, ciò significa solo che l’algoritmo è stato calibrato con una grande quantità di dati.
AI e diritto: è possibile creare algoritmi etici?
L’attenzione, dunque, si sposta su chi e come ha scritto questi algoritmi. È qui che dobbiamo fermarci per rispondere alla domanda: è possibile creare algoritmi etici? Ossia capaci di decidere in maniera oggettiva, trasparente, conoscibile e non discriminatoria?
Infatti, il consenso informato dell’utente da solo non è sufficiente per risolvere tutti i problemi. Né la possibilità di accedere al codice sorgente dell’algoritmo, poiché è scritto in linguaggi che non sono certo leggibili e compresi dai comuni cittadini.
Nello specifico, si pone l’esigenza di scongiurare il rischio che un algoritmo possa generare esiti discriminatori fondati su dati personali sensibili, tra cui la razza e l’estrazione sociale.
Le distorsioni e le discriminazioni costituiscono un rischio intrinseco di ogni aspetto della vita economica e sociale, dunque anche il processo decisionale umano non è immune da errori e distorsioni. Queste stesse distorsioni, se presenti nell’AI, potrebbero tuttavia avere effetti molto maggiori e colpire o discriminare numerose persone in assenza dei meccanismi di controllo sociale che disciplinano il comportamento umano. Ciò può accadere anche quando il sistema di AI “apprende” nel corso del suo funzionamento dagli effetti pratici delle correlazioni o dei modelli che il sistema individua all’interno di un ampio set di dati. In questo caso, tali risultati non possono essere evitati o anticipati in fase di progettazione.
Da un punto di vista giuridico, quindi, c’è la necessità d’intervenire con una regolamentazione meticolosa, che vada a stabilire regole possibilmente vincolanti che guideranno il modo in cui gli algoritmi sono scritti e il loro funzionamento. È in questo senso che ci si è mossi, in particolare, a livello europeo, per regolare il rapporto fra AI e diritto.
AI e diritto: le azioni della Commissione Europea
In particolare, la Commissione Europea nel dicembre 2018 ha annunciato l’avvio del “Progetto di orientamenti etici per un’AI affidabile”, percorso teso all’adozione di una Carta UE in tema di intelligenza artificiale, stabilendo alcune linee guida etiche e pratiche.
In questo contesto si inserisce il Libro bianco sull’Intelligenza Artificiale, pubblicato nel febbraio 2020 dalla Commissione europea, con il quale l’Europa intende “parlare con un’unica voce e definire il suo modo di promuovere lo sviluppo e la diffusione dell’AI basandosi sui valori europei”. Le conclusioni del documento mirano a fare dell’Unione Europea uno dei protagonisti mondiali nel campo dell’intelligenza artificiale, secondo i suoi principi fondamentali e quindi secondo un “approccio antropocentrico, etico, equilibrato nel rispetto dei valori e dei diritti fondamentali”.
In esso la Commissione ha ribadito, tra le altre cose, la necessità di un intervento e sorveglianza umani, ossia un utilizzo antropocentrico dell’intelligenza artificiale, valorizzando la diversità, la non discriminazione e l’equità: i dati non possono essere utilizzati a fini discriminatori o arrecatori di qualsiasi danno. Inoltre, i sistemi di AI dovrebbero tenere in considerazione l’intera gamma delle capacità, delle competenze e dei bisogni umani.
La risoluzione del Parlamento europeo
Da ultimo, in tal senso, il 20 ottobre è stata pubblicata la Risoluzione del Parlamento europeo recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate.
Il documento fornisce una sorta di guida etica per gli sviluppatori, operatori e utenti, affinché agiscano in modo equo e assicurino una protezione efficacie degli individui.
La risoluzione, fra le altre cose, sottolinea l’importanza di:
– implementare tecnologie di AI progettate per promuovere la diversità culturale e linguistica dell’Unione e aiutare a soddisfare i bisogni essenziali, evitando qualsiasi impiego che potrebbe comportare un’inammissibile coercizione diretta o indiretta, minacciare di compromettere l’autonomia psicologica e la salute mentale o portare a una sorveglianza ingiustificata, a inganni o a inammissibili manipolazioni;
– improntare tali tecnologie alla responsabilità sociale;
– raggiungere un livello elevato di alfabetizzazione digitale globale e di formare professionisti altamente qualificati in tale settore;
– rispettare i principi del Regolamento UE 2016/679 in materia di protezione dei dati personali nelle attività di categorizzazione e il microtargeting delle persone, l’individuazione delle loro vulnerabilità o l’utilizzo di accurate tecniche di conoscenza predittiva.
Conclusioni
Sia la Carta che la Risoluzione del Parlamento europeo sulla robotica enunciano una serie di principi etici e deontologici, rivolti innanzitutto ai ricercatori, in maniera da garantire una serie di principi fondamentali, che ricordano molto le “leggi” di Asimov: beneficenza, non-malvagità, autonomia, giustizia. A tal proposto il significato di beneficenza e non malvagità viene indissolubilmente legato ai principi fondamentali già esistenti nell’ordinamento comunitario, in particolare, è in forza dell’art. 2 della Carta di Nizza che vengono individuate l’indispensabile primarietà della dignità umana, dell’eguaglianza, equità, non discriminazione, rispetto della vita privata.
Del resto, la difficoltà di normare gli algoritmi viene compensata con il tentativo di porre principi prima ancora che regole. In questo senso, la responsabilizzazione etica della società digitale oltre a un momento “costituente” (anche la società digitale dovrà darsi una Costituzione) deve darsi un suo custode, che vigili e regoli progetti come quello citato, incoraggi la trasparenza e la piena tutela dei dati, l’emersione delle tecniche di progettazione, stabilisca anche mediante forme di soft law i punti fissi della nuova società popolata da macchine algoritmi. Una Autorità fatta da uomini, trasparente, democratica, accessibile. Per regolare gli algoritmi con la democrazia. E non viceversa.