Timnit Gebru, co-lead del team “Ethical AI Group” di Google, ha recentemente annunciato tramite Twitter che la società (pur parlando formalmente di “dimissioni” legate al mancato accoglimento di alcune condizioni proposte), l’aveva di fatto costretta a lasciare l’incarico, dopo l’invio di un’e-mail a un gruppo aziendale interno, al culmine di una serie di divergenze sulle prospettive di sviluppo tecnologico dell’azienda, rese anche oggetto di diffusione mediante la pubblicazione di tweet e articoli sui media, ulteriormente formalizzate in una lettera di protesta firmata da numerosi sostenitori, nonché membri dello staff di lavoro alle dipendenze di Google, promotori, tra l’altro, della formale richiesta di reintegrazione della ricercatrice. Il “casus belli” è rappresentato dai possibili rischi evidenziati sull’uso dei modelli linguistici di AI su cui si basa l’attività del motore di ricerca, tenuto conto delle implicazioni ambientali ed etiche di tali sistemi, di cui si è occupato anche il Mit Technology Review. In sostanza, tali modelli potrebbero essere discriminatori.
Le attività di Google
Google, infatti, da tempo è impegnata a sviluppare modelli di linguaggio di grandi dimensioni mediante l’utilizzo di sistemi di AI (come l’architettura di rete neurale Transformer) che potenzia in modo performante i risultati di ricerca, incrementando il business dell’azienda, grazie agli strumenti di apprendimento automatico (modellazione del linguaggio, libreria Tensor2Tensor, traduzione automatica e risposta alle domande), implementati per personalizzare i servizi richiesti dagli utenti secondo l’approccio operativo che ispira la filosofia dell’azienda: “L’attenzione è tutto ciò di cui hai bisogno “.
In particolare, il software “BERT” (Bidirectional Encoder Representations from Transformers) sembra rendere l’algoritmo di ricerca di Google molto migliore nel gestire le query di ricerca, decodificando le minime sfumature conversazionali del linguaggio grazie ad una capacità di interpretazione dei testi e delle immagini altamente performante.
La ricerca di Timnit Gebru: Google sta utilizzando modelli discriminatori
La ricerca condotta da Timnit Gebru (“On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”) ha esaminato le questioni problematiche associate alla tecnologia AI che analizza enormi database di linguaggio per creare il proprio testo simile a quello umano, evidenziando i potenziali pericoli di “pregiudizi” discriminatori e il costo ambientale nello spreco di un’elevata quantità di energia in contrasto con le politiche ecologiche adottate dall’azienda e con i Principi di intelligenza artificiale formalmente recepiti da Google.
La ricercatrice informatica pioneristica Gebru, fondatrice del progetto “Black in AI” realizzato per stimolare il dibattito qualificato sull’intelligenza artificiale, nota per la sua particolare attenzione ai profili etici delle tecnologie (emblematico, al riguardo, lo studio con cui ha dimostrato possibili effetti discriminatori razziali e di genere prodotti dal riconoscimento facciale, anche di Google, meno accurato nell’identificazione di donne e persone di colore) promuove da tempo un’AI giusta e responsabile, auspicando un maggiore sforzo di ricerca nell’implementazione di modelli di AI accurati in grado di realizzare efficaci risultati, dal punto di vista costo-opportunità.
A tal fine, Gebru ha evidenziato le criticità legate all’uso dei sistemi di intelligenza artificiale in grado di processare quantità sempre maggiori di dati, da cui discendono negative implicazioni etiche e ambientali determinate dall’eccessivo consumo di energia richiesta per il funzionamento di tali applicazioni che provoca una progressiva crescita di emissioni di anidride carbonica e un incremento dei relativi costi.
“Un linguaggio razzista, sessista e offensivo”
La massiva raccolta di dati effettuata dai sistemi tecnologici dell’azienda sembra in grado di fomentare, come effetto collaterale determinato dal modello lessicale di intelligenza artificiale predisposto, un linguaggio razzista, sessista e offensivo incorporato nei data set processati difficilmente verificabili, con preoccupanti risultati di destabilizzazione sociale a causa della diffusione di un “vocabolario” che, sebbene colmo di un discutibile “background” terminologico negativo, sarà sempre più accettato e considerato “normale” nelle dinamiche relazionali delle persone.
Peraltro, poiché il sistema di raccolta dei dati si basa sul processo di indicizzazione dei contenuti disponibili su Internet, tale modello non riuscirà a “catturare” le peculiarità linguistiche delle minoranze che hanno meno accesso alla Rete e, per tale ragione, non sono in grado di esprimere un lessico online efficacemente tracciabile, con la conseguente adozione universale di un linguaggio “standardizzato”, improntato agli usi lessicali “dominanti” delle comunità più ricche e tecnologicamente evolute.
In tale prospettiva, il modo in cui uno dei maggiori “colossi del web” affronterà tali questioni rappresenta una sfida centrale nello sviluppo dell’intelligenza artificiale che si determinerà nei prossimi anni, considerato che i modelli linguistici AI, in grado di imitare il vero linguaggio umano, possono essere utilizzati per ingannare le persone, generando informazioni false o fuorvianti con effetti di manipolazione.
Perfezionare gli algoritmi in maniera non discriminatoria
Senza dubbio, di fronte a una serie di punti di forza e di debolezza, le tecnologie offrono enormi potenzialità per migliorare in generale la vita delle persone. Tuttavia, al contempo, presentano aspetti problematici, nell’ambito di un “lato oscuro” non ancora del tutto decifrabile, che giustificano una riflessione attenta e particolareggiata sulle condizioni evolutive dell’innovazione digitale.
In questo senso, il crescente perfezionamento degli algoritmi di apprendimento automatico dovrebbe sempre essere orientato a favorirne l’implementazione sicura, sostenibile e non discriminatoria.
Sullo sfondo, infatti, si manifesta il rischio di rilevanti diseguaglianze e discriminazioni destinate ad alimentare preoccupanti forme di profonda esclusione sociale, a causa di una non equa, trasparente e inclusiva distribuzione delle risorse, da cui potrebbe derivare un ulteriore incremento dell’attuale divario di ricchezza, in cui i “big players” sfruttano totalmente a proprio vantaggio il surplus economico che creano.
Modelli discriminatori negli assistenti vocali Google
I sistemi di intelligenza artificiale stanno diventando sempre più efficaci nel modellare conversazioni e relazioni umane. Poiché sono creati da esseri umani, i quali a loro volta possono essere “prevenuti” nella fase di progettazione di tali applicazioni, se usati correttamente, rappresentano senz’altro un’opportunità generale verso comportamenti più vantaggiosi e positivi per tutti. Tuttavia, nelle mani sbagliate, potrebbero rivelarsi dannosi, tenendo presente che più potente diventa una tecnologia, più può essere utilizzata per ragioni nocive oltre che buone. Come riusciremo a modellare la società del futuro? Come eliminiamo i pregiudizi e i sistemi discriminatori dell’AI, come quelli che utilizzerebbe Google?
Video: AI conversazionale – la nuova interfaccia utente. Google Cloud Community Day 2019 (in inglese con sottotitoli)
Conclusioni
I “giganti della rete”, grazie a un’indiscutibile lungimiranza nella costruzione di una visione futura di società basata sulla piena convergenza tecnologica, possono trainare la rigenerazione della società verso nuove e inedite prospettive di crescita socio-economica in linea con l’avvento dell’era digitale, purché dimostrino di affrontare, con la dovuta serietà e consapevolezza, i problemi etici posti dalle tecnologie, senza perseguire unicamente il fine lucrativo su cui si fonda il proprio modello imprenditoriale di business, a maggior ragione perché oggi non sono più soltanto operatori economici ma anche e soprattutto attori “politici” rilevanti nel panorama globale.