La diffusione sempre maggiore di tecnologie AI sta permettendo una grande rivoluzione in vari settori, da quello sanitario a quello bancario. Questi sistemi consentono di risparmiare tempo nei processi produttivi, nell’esecuzione di operazioni complesse o nell’analisi delle opzioni possibili. Tuttavia, come afferma un articolo pubblicato su Bloomberg Law, i sistemi AI funzionano bene nella misura in cui essi sono progettati. Perciò, gli errori di progettazione possono determinare degli errori nel funzionamento della stessa AI. Ecco cosa succede se l’intelligenza artificiale è usata male.
Bias e usi impropri dell’AI
Tra le varie problematiche riscontrate nel funzionamento delle tecnologie AI, il bias assume un’importanza notevole, consistendo in un errore di valutazione in un processo decisionale.
Nel campo dell’AI, è fondamentale utilizzare in modo corretto i dati per “istruire” le tecnologie in modo che possano funzionare in modo autonomo e corretto. Dato il largo utilizzo che si fa dei software, un utilizzo errato dei dati può comportare un malfunzionamento sistemico. Il problema è significativo se il sistema AI è una “scatola nera”, ovvero se non è possibile modificare le modalità di funzionamento; in questi casi diventa necessaria la sostituzione dell’intera tecnologia, come sottolinea l’articolo scritto da Heather J. Meeker e Amit Itai, dello studio legale O’Melveny & Myers LLP.
Diventa quindi essenziale, anche se non sufficiente, apportare delle migliorie nella fase di creazione del software. Infatti, molte compagnie stanno adottando policy di conformità delle tecnologie AI per la prevenzione dei bias e il corretto utilizzo dell’intelligenza artificiale.
Un caso emblematico di errore commesso da una tecnologia AI è stato registrato di recente. Lo scorso ottobre, infatti, il Public Health England, responsabile del conteggio dei pazienti affetti da COVID-19 nel Regno Unito ha rivelato che i sistemi utilizzati hanno escluso dal conteggio 16.000 casi. In questo caso, l’errore è stato dovuto a una limitazione dei dati in Microsoft Excel, visto che un foglio di lavoro può contenere al massimo 16.384 colonne, non tenendo in conto le colonne successive. In questo caso, il problema è stato risolto in poco tempo, ma senz’altro ha messo in evidenza l’imperfezione del sistema che trasferiva automaticamente i file CSV che contenevano i risultati di laboratorio, in file Excel, utilizzati per il tracciamento.
Cosa accade quando si usa male l’AI
Nel 2016, invece, si è verificato un episodio piuttosto spiacevole per il colosso dell’informatica Microsoft. L’azienda aveva rilasciato Tay, una chatbot AI che interagiva con gli utenti sulle piattaforme dei social media. I tweet pubblicati, che dovevano essere un esperimento di “conversazione sperimentale”, avevano invece connotazioni razziste e misogine. Ciò è stato causato dall’interazione con utenti che hanno utilizzato commenti razzisti e offensivi contro Tay, che ha appreso quei commenti e li ha riutilizzati nei propri tweet.
L’imperfezione del sistema AI è stato sottolineato anche da Peter Lee, vicepresidente di Microsoft Research & Incubations, affermando che l’unico modo per rendere l’AI perfetta è imparare dai propri errori e fare nuovi tentativi di progettazione.
Un ultimo caso in cui l’intelligenza artificiale è stata usata male riguarda il software Compas (Correctional offender management profiling for alternative sanctions), sviluppato dall’azienda Northpointe (Equivant). La tecnologia, utilizzata dai tribunali statunitensi, avrebbe dovuto calcolare la tendenza di un criminale alla recidiva. Tuttavia, il software assegnava una maggiore tendenza alle persone di colore, a causa delle informazioni utilizzate in fase di addestramento. Un tipico caso, questo, di bias algoritmico.
Problemi legali e soluzioni all’uso dell’AI
I bias e gli errori legati alla progettazione possono avere conseguenze molto gravi, che conducono a veri e propri casi giudiziari. Negli Stati Uniti i legislatori stanno introducendo normative specifiche per l’utilizzo delle tecnologie AI. Proprio per questo, le aziende dovrebbero prestare maggiore attenzione all’utilizzo improprio dei sistemi AI, che potrebbe costar loro delle class-action. Nel 2019 un gruppo di Youtubers della comunità LGBTQ+ ha fatto causa a Google, accusando l’azienda di metter in atto pratiche discriminatorie che impediva loro di monetizzare i video pubblicati sui relativi canali. L’algoritmo utilizzato da Youtube, infatti, imponeva una limitazione di età ai video contenenti parole come “gay”. I video soggetti a tale limitazione non possono essere monetizzati, il che discrimina, di fatto, i membri della comunità LGBTQ+.
Nell’articolo menzionato, Heather J. Meeker e Amit Itai propongono, come soluzione a queste problematiche, l’adozione di una policy per l’utilizzo dell’AI e un incident plan.
Secondo i due autori, la policy dovrebbe includere le seguenti misure:
- Una valutazione dei processi di sviluppo delle tecnologie utilizzate;
- Lo sviluppo di programmi di formazione per gli addetti ai lavori, al fine di incrementare la consapevolezza dei bias nell’utilizzo dei dati;
- L’implementazione di un sistema di audit;
- Documentare il processo decisionale nello sviluppo dei software AI;
- Lo sviluppo di sistemi AI che aumentino la tracciabilità delle decisioni prese dai software;
- L’incremento della trasparenza nell’utilizzo dei dati dei clienti;
- Il monitoraggio continuo di alcune funzioni degli strumenti AI, assicurandosi di permettere l’intervento dell’uomo (human in the loop)
Infine, è utile creare un incident plan che permetta all’azienda di rilevare eventuali malfunzionamenti e danni arrecati dal sistema AI, al fine di implementare le misure correttive, per evitare conseguenze legali.
L’intelligenza artificiale è sicuramente uno strumento utile in una pluralità di settori. L’utilizzo della stessa ha velocizzato i processi di analisi, di decision-making e di valutazione dei rischi, fattore fondamentale in quelle situazioni di urgenza e criticità. Ma l’intelligenza artificiale non va usata male.
È necessario, perciò, che le varie fasi di progettazione, creazione e addestramento del software vengano monitorate e valutate secondo parametri stabiliti. Lo scorso febbraio è stato pubblicato dalla Commissione Europea il Libro Bianco sull’intelligenza artificiale, che sottolinea l’importanza di “un approccio comune europeo all’IA per raggiungere dimensioni sufficienti ed evitare la frammentazione del mercato unico”.
Il libro bianco è il punto di partenza per la creazione “di un futuro quadro normativo per l’AI in Europa, che creerà un “ecosistema di fiducia” unico” che “deve garantire il rispetto delle norme dell’UE, comprese le norme a tutela dei diritti fondamentali e dei diritti dei consumatori, in particolare per i sistemi di IA ad alto rischio gestiti nell’UE”.