Un “giuramento” che salvaguardi l’etica dell’intelligenza artificiale. È ciò che ha istituito e pubblicato un gruppo di scienziati esperti di data science e AI nel 2018. Seguendo l’esempio di Ippocrate per la medicina, il gruppo si è ispirato a due pionieri dell’AI e della computer science del ‘900: Frances Elizabeth Holberton (detta “Betty”), una dei sei programmatori dell’ENIAC, il primo computer digitale universale, nonché inventrice dei breaking points nel computer debugging e Alan Turing, padre dell’informatica e dell’intelligenza artificiale, matematico, criptoanalista e filosofo.
Holberton–Turing Oath: un passo in avanti nell’etica dell’AI
In cosa consiste il giuramento di Holberton-Turing? Il gruppo di scienziati – tra cui Aurélie Jean, autrice del libro “Nel paese degli algoritmi” – ha stilato una serie di prìncipi invitando altri esperti di intelligenza artificiale ad aderirvi. Il giuramento si propone di coinvolgere altri esperti di AI a condividerne i valori, al fine di assicurare uno sviluppo etico dell’AI. Aderendo all’Holberton–Turing Oath, l’esperto di AI si “impegna solennemente a dedicare la sua vita al servizio dell’umanità”, garantendo il massimo rispetto della vita umana, senza discriminazioni di alcun genere, e si impegna a non usare le proprie conoscenze e competenze per violare diritti umani e libertà civili. Il giuramento prevede altri princìpi che riguardano le professioni in questione, il trattamento dei dati personali, il lavoro, la dignità e la libertà umane.
Di certo, sapere che gli scienziati aderiscono a un protocollo di princìpi capaci, almeno in linea teorica, di garantire uno sviluppo “umanamente” sostenibile dell’AI dal punto di vista etico è un grande passo in avanti per favorire un approccio più consapevole e human friendly all’intelligenza artificiale; tuttavia, questo può non bastare se la società civile e i governi nazionali non favoriscono un dibattito aperto e dinamico sulla questione, in modo da rendere i cittadini edotti, meno vulnerabili e più consapevoli. Si potrebbe, per esempio, istituzionalizzare la sottoscrizione di una serie di princìpi etici per chi lavora nei settori Data Science e AI. Bisogna insistere su educazione e sensibilizzazione, al fine di riuscire a vedere e usare l’intelligenza artificiale come una tecnologia a servizio dell’umanità e non il contrario.
The Holberton-Turing Oath
As a member of the data science and artificial intelligence profession, I solemnly pledge to dedicate my life to the service of Humanity :
Humanity & Ethics :
I will maintain the utmost respect for human life;
I will not permit considerations of age, disease or disability, creed, ethnic origin, gender, nationality, political affiliation, religious beliefs, race, sexual orientation, social standing or any other factor to intervene in duty;
I will not use my knowledge to violate human rights and civil liberties, even under threat;
Data Science, Art of Artificial Intelligence, Privacy & Personal Data :
I will respect the hard-won scientific gains of those scientists and engineers in whose steps I walk, and gladly share such knowledge as is mine with those who are to follow;
I will remember that there is an art to Artificial Intelligence as well as science, and that human concerns outweigh technological ones;
I will respect the privacy of humans for their personal data are not disclosed to Artificial Intelligence systems so that the world may know;
I will remember that I am not encountering dry data, mere zeros and ones, but human beings, whose interactions with my Artificial Intelligence software may affect the person’s freedom, family, or economic stability;
I will respect the secrets that are confided in me;
Daily work & Etiquette :
I will practice my profession with conscience and dignity;
I will foster the honor and noble traditions of the data science and artificial intelligence profession;
I will give to my teachers, colleagues, and students the respect and gratitude that is their due;
I will share my knowledge for the benefit of the people and the advancement of Data-Science and Artificial Intelligence;
I will consider the impact of my work on fairness both in perpetuating historical biases, which is caused by the blind extrapolation from past data to future predictions, and in creating new conditions that increase economic or other inequality;
I make these promises to create Artificial Intelligence, first, to collaborate with people for the greater good, rather than usurp the human role and supplant them;
I make these promises solemnly, freely, and upon my honor.
Bias: distorsioni e discriminazioni che partono innanzitutto da noi
Una visione “etica” dell’intelligenza artificiale è quanto mai necessaria. Tra i temi più discussi e che destano preoccupazione emergono i bias algoritmici – e le discriminazioni che essi potenzialmente sono in grado di creare – e il “conflitto” intelligenza artificiale versus intelligenza umana, vale a dire comprendere il confine che separa ciò che è umano da ciò che è governato esclusivamente dalle macchine, ammesso che un governo totale degli algoritmi sia possibile.
Per bias si intende una sorta di “distorsione”. Tutti noi siamo pieni di bias: le “distorsioni”, i pregiudizi e le percezioni individuali della realtà fanno parte della natura umana e dipendono anch’esse da diversi fattori. Il bias, infatti, è qualcosa che nasce prima degli algoritmi informatici e che ha a che fare con la natura umana: il nostro cervello elabora le informazioni in base ad “algoritmi” naturali, selezionandole e categorizzandole, generando così il nostro modo di vedere e percepire la realtà. Per questo, anche nel caso dell’intelligenza artificiale, si parla di rete neurale, un concetto affine alla biologia del cervello umano.
Questo implica, quindi, che i bias algoritmici dipendono – in qualche modo e con estrema semplificazione – dai nostri; gli informatici e gli esperti che sviluppano algoritmi, infatti, sono esseri umani, con le proprie convinzioni, la propria cultura, la propria esperienza. Esemplare è il caso della scienziata del Media Lab del MIT, Joy Buolamwini, fondatrice dell’Algorithmic Justice League: durante la sua attività di studio e ricerca, si rende conto che alcuni sistemi di riconoscimento facciale non erano in grado di riconoscere il suo volto. Il risultato delle analisi e delle indagini condotte ha portato alla conclusione che i sistemi non rilevavano certi caratteri somatici, tra cui il colore della pelle. Perché questo è successo? Perché il software è per sua natura discriminatorio o perché esso non era stato “addestrato” dai suoi sviluppatori (il c.d. training set nel machine learning) a riconoscere una serie più ampia di dati relativi ai tratti somatici delle persone? Oggi, Joy Buolamwini, con l’Algorithmic Justice League (https://www.ajl.org/), si propone di aumentare la consapevolezza degli impatti dell’AI sulla vita delle persone, soprattutto quelle più vulnerabili che potrebbero essere danneggiate dall’uso improprio di questa tecnologia, stimolando esperti, politici e ricercatori a mitigare i danni e i pregiudizi nell’AI.
Per quanto gli esperti possano sforzarsi di ridurre i bias nei sistemi di intelligenza artificiale, c’è sempre la possibilità che qualche distorsione rimanga; in molti casi, i bias possono essere corretti (nel caso di inserimento di criteri espliciti), ma in altri casi la rete neurale si espande così tanto e attraverso criteri impliciti (deep learning) che diventa troppo difficile, se non impossibile, intervenire con le dovute correzioni.
L’AI non ha una coscienza
Una prima rassicurazione, ad ogni modo, deriva dalla consapevolezza che dietro gli algoritmi ci sono le persone che li sviluppano: siamo noi, esseri umani, a impostare i criteri di funzionamento e addestramento di un algoritmo; altra rassicurazione è che – per quanto sofisticata – l’AI non ha coscienza e non ha inconscio. Un robot, dicono gli esperti, sarà perfettamente in grado di riconoscere i cani da altri esseri viventi, perché è stato addestrato per rilevare certi caratteri che definiscono un cane e che lo differenziano da una giraffa; tuttavia, il robot non avrà la consapevolezza e la coscienza che ciò che sta rilevando è proprio un cane. Rileva i dati e restituisce un risultato, ma non ha la nostra stessa coscienza insomma. Del resto, molte scoperte scientifiche nascono con lo scopo di migliorare la vita delle persone; l’uso che ne facciamo noi esseri umani fa la differenza. Albert Einstein, dopo aver elaborato la formula E=mc2, non sapeva che essa sarebbe poi stata decisiva per lo sviluppo della bomba atomica…
Questo, chiaramente, non basta. Il machine learning permette alle macchine di diventare sempre più sofisticate, di imparare – appunto – dagli errori e diventare in molti casi più veloci ed efficienti degli esseri umani; e qui si pone un altro grande dilemma: il lavoro dei robot potrà sostituire quello delle persone? In parte, questo è già avvenuto e sta avvenendo. Le macchine e i cobot (robot collaborativi) sostituiscono già gli esseri umani in lavoro meccanici, pesanti e usuranti. Ma anche gli assistenti virtuali sostituiscono una parte di lavoro svolta prima da segretarie, assistenti, centraliniste, ecc. Qual è il vantaggio dunque? Per esempio, automatizzare lavori meccanici e ripetitivi fornisce più tempo alle persone di dedicarsi con più qualità ad altre mansioni o a svolgerle in minor tempo. Un altro aspetto da considerare è che l’avanzamento tecnologico verticalizza le competenze e rende sempre più netta la distinzione tra lavori che possono essere svolti dalle macchine e altri che devono essere invece svolti solo da esseri umani, la cui creatività e intelligenza emotiva, le cosiddette soft skill, sono insostituibili da qualsiasi robot.
Il ruolo degli scienziati e della società per una AI etica
Cos’altro si potrebbe fare per rendere più chiari i fenomeni legati all’AI, garantendo trasparenza sul suo utilizzo? Essendo, questa, una tecnologia capace di impattare in modo decisivo sulle le nostre vite, si può intervenire con una sorta di regolamentazione “etica” nell’utilizzo dell’AI? Vale la pena ribadire che l’intelligenza artificiale trova sempre più applicazioni nei settori più diversi: economia, marketing, giornalismo, agricoltura, ingegneria, educazione, ecc. Garantire l’uso sicuro ed etico di questa tecnologia diventa sempre più necessario, così come educare e sensibilizzare i cittadini ad informarsi in modo adeguato e da fonti attendibili e certificate, per evitare falsi allarmismi e inutili prese di posizione aprioristiche.