L’AI spiegata agli umani
Il riconoscimento facciale è sotto molti aspetti la pecora nera dell’intelligenza artificiale. Più di qualsiasi altra tecnologia degli ultimi anni è stata colpita dal fuoco incrociato di esperti della privacy, attivisti per i diritti umani, organizzazioni non governative, inchieste stampa e – di conseguenza – cittadini preoccupati.
Dietro al riconoscimento facciale sono scoppiati scandali politici e talvolta geopolitici, come le accuse di profilazione razziale contro minoranze etniche che accomunano Paesi molto diversi come gli Stati Uniti e la Cina. Non è difficile trovare articoli su come una persona di colore sia stata ingiustamente detenuta negli Usa a seguito di un riconoscimento facciale automatico risultato poi errato. Viste le continue proteste, molte amministrazioni statunitensi hanno deciso di vietare tout-court la tecnologia, come ad esempio Portland, San Francisco, Boston e fra pochi mesi anche lo Stato della Virginia. Diversi colossi tecnologici inoltre hanno preso le distanze, come Microsoft, Amazon o addirittura IBM che l’anno scorso ha dichiarato che non produrrà più soluzioni per il riconoscimento facciale.
Riconoscimento facciale: una tecnologia a prova di errore
Chi si preoccupa per gli abusi di questa tecnologia, e lo scrivo da tecnologo, spesso non ha tutti i torti. Il riconoscimento facciale è l’esempio classico della tecnologia con forti potenzialità dannose usata troppo disinvoltamente e pervasivamente, senza che sia stato dato al pubblico tempo per comprenderla, soppesarne pregi e difetti, imparare a gestirla. In un certo senso “metabolizzarla”.
Fino a pochi anni fa si trattava di prodotti inclini all’errore facile. Oggi invece l’efficacia non è più un problema: se solo nel 2014 il migliore algoritmo di riconoscimento facciale produceva oltre il 4% di errori (nel caso vi sembri poco, provate a metterlo in un punto trafficato come la stazione Termini di Roma, che in tempi pre-pandemia vedeva in media quasi mezzo milione di passeggeri al giorno), ai giorni nostri il tasso di errore è di appena lo 0,08%. Puntualizzo subito che il tasso di errore varia a seconda di vari fattori, come età, etnia, abiti, ma è pacifico che man mano che andremo avanti diminuirà per tutte le categorie fino ad arrivare a frazioni infinitesimali.
Ma forse la precisione sempre crescente non fa che aggravare il problema. Negli ultimi decenni abbiamo visto spuntare telecamere dappertutto, eppure – nonostante qualche mugugno – la stragrande maggioranza di noi non se ne curava perché sapevamo che il feed sarebbe stato utilizzato solo in caso di reati. E comunque l’identificazione di un semplice passante non solo non era la priorità delle forze dell’ordine, ma poteva essere oggettivamente difficile con i mezzi di dieci o venti anni fa. Niente di grave, quindi, e ci siamo abituati ai freddi occhi meccanici.
Il passaggio da telecamere stupide a telecamere intelligenti tuttavia è stato repentino e pressoché impercettibile, non è stato annunciato da nessuno e ha ovviamente iniziato a scatenare una serie crescente di preoccupazioni e di resistenze fra il pubblico.
Riconoscimento facciale: una tecnologia di sorveglianza
Oggi ogni fotogramma può produrre dati precisi e puntuali, identificando indiscriminatamente chi entra, chi esce, chi sta semplicemente passando di là per caso. Le telecamere, dapprima occhi tutto sommato sonnacchiosi che avevamo accettato nella nostra quotidianità proprio per questa loro intrinseca inefficienza, ora ci vedono e ci riconoscono. La vasta infrastruttura di sorveglianza si è finalmente svegliata, e non abbiamo la minima idea di chi gestirà queste informazioni, né cosa ci farà.
I timori sono accentuati dal fatto che la repentina adozione di questa tecnologia non è stata adeguatamente spiegata ai cittadini. Un semplice passante, per fare un esempio, non sa la differenza che passa fra face detection e face recognition. Nel primo caso il sistema si accorge semplicemente che nell’inquadratura è presente un essere umano, senza tuttavia cercare di riconoscerlo, mentre nel secondo caso prende nota dei tratti somatici del volto per tentare di identificarlo. Una differenza importante: nel primo caso non si viola la privacy di nessuno, nel secondo caso la violazione è possibile, eppure entrambe le funzioni sono spesso erroneamente considerate riconoscimento facciale.
O ancora, certi sistemi effettuano un riconoscimento dei tratti somatici semplicemente per identificare le emozioni. Faccia sorpresa? Contenta? Arrabbiata? Il riconoscimento delle emozioni sta diventando sempre più importante per le aziende, per farlo serve raccogliere dati biometrici ed elaborarli, eppure neanche lì c’è identificazione della persona.
E anche in quei casi in cui dovesse avvenire un tentativo di identificazione, nessuno prova a spiegare al passante che il suo volto è stato controllato solo per verificare che assomigli a uno di quelli presenti in una lista che – banalizzando – possiamo ipotizzare essere una white list nel caso sia necessario riconoscere i volti delle persone che possono accedere a un dato luogo, o una black list nel caso sia necessario allertare gli addetti della presenza di determinate persone. Se il volto di Mario Rossi non è presente nella lista (chiamata anche watch list), egli potrà allontanarsi sicuro del fatto che i suoi tratti somatici, benché siano stati analizzati con precisione ed elaborati da un sistema automatizzato, non hanno portato ad alcuna identificazione, quindi nessuno saprà che è stato lì.
Ma poiché tutte queste spiegazioni non vengono date – e anche se venissero date molte persone non vogliono sentir ragione per questioni di principio – oggi qualsiasi telecamera puntata lascia spesso un senso di apprensione. In molti temono una violazione della privacy ogni volta che girano l’angolo o entrano in un negozio.
Una tecnologia che desta sospetti
Per aggiungere benzina sul fuoco, poi, non aiuta il fatto che la stragrande maggioranza di queste telecamere – e dei relativi software di intelligenza artificiale – provenga dalla Cina. Paese che nell’immaginario collettivo, complici anche le continue inquietudini statunitensi, viene visto come bulimico di informazioni da sottrarre con qualsiasi mezzo.
Ecco perché ha fatto notizia il pronunciamento di un tribunale di Hangzhou, città a 140 chilometri da Shanghai, nonché sede del colosso cinese dell’e-commerce Alibaba, che ha dato ragione a Guo Bing, professore di giurisprudenza presso l’Università Tecnica Zhejiang nonché cliente tutt’altro che soddisfatto del Safari Park cittadino.
Nel 2019 il professor Bing si lamentò perché il safari park chiedeva obbligatoriamente a tutti i clienti di essere ripresi dal sistema di riconoscimento facciale, pena il mancato ingresso allo zoo. Secondo il cliente tale requisito violava le norme cinesi a protezione dei consumatori, che pare richiedano il consenso esplicito di ogni individuo al trattamento della propria immagine. In questi giorni il tribunale cinese gli ha dato ragione, ha condannato il safari park al rimborso dell’abbonamento annuale e ha dichiarato illegale la cattura dei dati biometrici del volto senza il consenso degli interessati.
Non solo, nel Paese che molti immaginano come un monolite di istituzioni asservite all’oligarchia al potere, i media di Stato hanno dichiarato trionfanti – e cito il South China Morning Post – che i cittadini ora possono “coraggiosamente dire no al riconoscimento facciale”.
Se anche in Cina non hanno paura a dare un calcio al riconoscimento facciale, figuriamoci quanti punti deve aver perso la tecnologia agli occhi della gente comune.
Riconoscimento facciale: la UE sta preparando regole ferree
Per completare il giro, non si può non considerare il colpo che probabilmente metterà a tappeto il concorrente: da documenti filtrati alla stampa pare che la Commissione Europea si stia preparando a limitare con regole ferree la tecnologia di riconoscimento facciale “a distanza” nelle aree accessibili al pubblico. Si considera “a distanza” la raccolta dei tratti somatici del volto quando l’utente non si pone volontariamente davanti a una telecamera (come avviene invece negli aeroporti quando si accede al controllo passaporti). La raccolta a distanza si attua di solito con telecamere di sorveglianza che monitorano un passaggio di persone, come nelle stazioni o nelle piazze. Per operare un servizio del genere serviranno autorizzazioni speciali, presumo rilasciate col contagocce e solo per scopi di pubblica utilità e sicurezza.
La Commissione Europea si è mossa dopo gli inequivocabili segnali provenienti dai propri cittadini. Nelle note che precedono il documento, infatti, si chiarisce che il periodo di consultazione pubblica al Libro Bianco dell’Unione Europea sull’AI ha visto la grande maggioranza di persone chiedere un divieto, una regolamentazione o altri limiti posti al riconoscimento facciale nei luoghi accessibili al pubblico. La gente non lo vuole e i politici non hanno fatto altro che prenderne atto.
Quindi potremo dire addio all’idea di un negozio che voglia riconoscere i clienti più assidui per proporgli uno sconto (o i taccheggiatori seriali per allertare subito le guardie). O al progetto di una università di misurare la frequentazione degli studenti per migliorare l’offerta formativa individuale. O a quella di un centro commerciale che voglia comprendere l’età o il genere delle persone che si fermano nei propri spazi per adeguare i propri servizi. O ad altri usi creativi o imprenditoriali che ora non mi vengono in mente, ma che avrebbero richiesto il riconoscimento dei nostri tratti facciali.
Conclusioni
Il riconoscimento facciale, arrivato in fretta, mal comunicato, abusato oltre ogni limite e oggi comprensibilmente odiato, è un esempio da manuale di come certe innovazioni dell’intelligenza artificiale possano essere completamente rigettate dal pubblico se introdotte in maniera surrettizia, senza un minimo di criterio né di buon senso.
Altri articoli della stessa rubrica
L’AI spiegata agli umani – Le novità per l’AI civile nella legge finanziaria della Difesa Usa
L’AI spiegata agli umani – I bias dei modelli algoritmici sono colpa nostra
L’AI spiegata agli umani – La verifica dell’età su TikTok
L’AI spiegata agli umani – I sistemi multi-modali saranno il prossimo grande passo
L’AI spiegata agli umani – Chi controlla gli algoritmi? Il caso Facebook
L’AI spiegata agli umani – Cosa si nasconde dietro a un algoritmo