Dopo un iniziale naturale disorientamento di fronte all’arrivo inatteso di una pandemia a sconvolgere le certezze della nostra società ipertecnologica, assistiamo ora a un grande fermento nella comunità scientifica (ma non solo), con l’avvio di un gran numero di iniziative mirate a fronteggiare l’emergenza. Fin da subito è apparso evidente che il nuovo coronavirus, ponendoci davanti all’ignoto, esigeva uno sforzo colossale di raccolta di dati che ci aiutassero a comprenderne il comportamento, se possibile a prevederlo, e a contenerne la diffusione. Di qui tutto il fiorire di iniziative per il cosiddetto tracciamento dei contatti (contact tracing) sulla scorta delle strategie di contrasto della pandemia già messe in atto nei Paesi dell’Estremo Oriente, i primi ad affrontare l’emergenza.
Dati personali, condivisione contro protezione
A livello nazionale, nell’ambito dell’iniziativa “Innova per l’Italia” promossa da Mise, Miur, e Mid con il supporto tecnico di Agid, si è da poco chiuso il bando lampo che intende fare una ricognizione di tecnologie e strumenti per il monitoraggio, la localizzazione e la gestione dell’emergenza. Fra i requisiti vi è ovviamente la conformità al GDPR delle soluzioni proposte. L’adozione infatti di sistemi di tracciamento, e più in generale di sorveglianza, si accompagna inevitabilmente a un dibattito, anche ideologico, tuttora in corso, su: protezione dei dati per garantire la libertà individuale versus condivisione dei dati per perseguire il bene comune. Queste due esigenze contrapposte sono in realtà conciliabili mediante, per esempio, tecniche di anonimizzazione o – meglio – pseudonimizzazione. Quest’ultima, risultando più appropriata ai fini della validazione dei modelli epidemiologici, sarebbe da preferire in ambito medico.
Anche gli esperti di AI sono stati sollecitati a mettere in campo le loro armi algoritmiche in questa “guerra contro il nemico invisibile”. Svariate sono ormai le occasioni di incontro virtuale per gli addetti ai lavori. Fra le più recenti spicca la videoconferenza su “Covid-19 and AI” organizzata dal gruppo di Human-centered AI dell’Università di Stanford e trasmessa in streaming il 1 aprile scorso. Altri, coordinati dal prestigioso Allen Institute for AI, hanno pensato bene di cogliere la sfida del Covid-19, lanciandone un’altra mirata agli esperti di AI. È nata così Covid-19 Open Research Dataset Challenge (CORD-19), un corpus enorme di articoli scientifici che parlano del coronavirus responsabile di questa pandemia e di altri virus simili. L’idea è che gli algoritmi di elaborazione del linguaggio naturale possano aiutare i medici ad analizzare nel più breve tempo possibile la quantità crescente di letteratura sul tema.
Complessivamente, osserviamo quindi una certa ossessione per i dati, sebbene essa potrebbe rivelarsi non così giustificata ai fini dell’applicazione di tecniche di IA davvero utili nel momento storico che stiamo attraversando. Vediamo perché.
Una Ai data-driven o model-driven?
Quando si parla di AI, l’immaginario comune corre agli algoritmi di machine learning (in particolare, alla classe degli algoritmi di Deep Learning – ovvero l’ultima generazione di reti neurali artificiali) e alle sue strabilianti applicazioni in molti settori. Si pensi all’uso ormai consolidato di questi strumenti nella elaborazione delle immagini, opportunità che si sta rivelando estremamente utile anche in questi giorni concitati per abbattere i tempi di diagnosi delle polmoniti da Covid-19 mediante l’analisi automatica di sequenze di immagini (tipicamente TC) dei polmoni dei pazienti alla ricerca dei danni causati dal virus.
Senza voler negare il ruolo determinante avuto da questi algoritmi e dalle loro applicazioni di successo nella popolarità raggiunta oggigiorno dall’AI nel suo complesso, è opportuno sottolineare che il machine learning è solo una sottoarea, seppur molto significativa e in netta espansione, all’interno dell’area di ricerca storicamente indicata come AI. Ciò che contraddistingue il machine learning è l’uso di dati per poter fare predizioni. Nel caso specifico del Deep Learning, gli algoritmi funzionano meglio in presenza di una enorme quantità di dati (big data) da cui apprendere. Possiamo quindi parlare di AI cosiddetta data-driven, cioè fortemente guidata dai dati. Il che spiega anche l’enfasi che, durante l’emergenza Covid-19, è stata data alla necessità di raccogliere dati, non solo ai fini di monitoraggio della situazione, ma anche ai fini di una successiva applicazione di algoritmi di machine learning per, ad esempio, prevedere l’evoluzione della pandemia.
Tuttavia, in questo momento storico, l’uso di metodi data-driven a scopi predittivi è potenzialmente problematico. Questi metodi, infatti, apprendono mettendo in correlazione dati provenienti dal passato, ma al momento non abbiamo dati a sufficienza che riguardino situazioni simili. I risultati ottenuti nel passato non sono una garanzia per il futuro, specialmente quando – come in questa pandemia – il futuro appare così diverso da qualsiasi altra cosa a noi nota in precedenza. Inoltre, i pochi dati a disposizione sono per giunta incompleti e distorti. Per esempio, è ormai chiaro che ci sono molti più casi di contagio di quelli confermati, e non esiste una rendicontazione completa del numero di decessi effettivamente attribuibili al Covid-19. Usare quindi i dati attualmente disponibili per addestrare algoritmi di machine learning può portare a molti falsi negativi e falsi positivi, contribuendo a creare confusione piuttosto che chiarezza. E quindi dobbiamo arrenderci all’idea che l’AI non possa fare molto nell’immediato? Non esattamente.
La situazione attuale potrebbe essere uno di quei casi in cui i metodi cosiddetti model-driven si rivelano più adeguati di quelli data-driven. Lasciarsi guidare dai modelli consente di affrancarsi da dati insufficienti oltre che fuorvianti. Ovviamente, la selezione di modelli deve essere fondata su ricerca solida in epidemiologia, sociologia e psicologia, insieme ad adeguate rappresentazioni computazionali. Questo tipo di modelli tende ad essere sensibile alle assunzioni progettuali e ai parametri iniziali. Pertanto, prima di proporre questi sistemi ai policy makers, occorre condurre dei test mirati alla loro validazione. Cosa riusciamo a fare con i metodi model-driven?
Fra le varie applicazioni dei metodi model-driven spicca la simulazione, uno strumento particolarmente utile ogni qualvolta abbiamo bisogno di esplorare tutti gli scenari possibili. Ci sono diversi gruppi di ricerca che in questo momento stanno lavorando su simulazioni basate su sistemi ad agenti. Ad esempio, ASSOCC è una soluzione sviluppata appositamente in occasione dell’emergenza sanitaria per sperimentare e valutare i possibili interventi e i loro effetti combinati, in un mondo controllato simulato. Essa non riflette alcun luogo o situazione reale, e non fa predizioni. Il suo scopo sta semplicemente nel suggerire percorsi che si potrebbero intraprendere dopo la pandemia.
I sistemi ad agenti sono anche ampiamente utilizzati per supportare le attività di pianificazione e schedulazione. In AI, tali attività consistono nella realizzazione di strategie o sequenze di azione tipicamente pensate per essere eseguite da agenti intelligenti, robot autonomi e veicoli cosiddetti unmanned. Diversamente dai classici problemi di controllo e classificazione, le soluzioni sono complesse e devono essere scoperte ed ottimizzate in uno spazio multidimensionale. Non è un caso che questa sottoarea di AI abbia molti punti di contatto con la teoria della decisione. La difficoltà delle attività di pianificazione e schedulazione varia a seconda della situazione in cui ci troviamo a operare, sia essa rappresentata da ambienti noti con modelli disponibili o ambienti dinamicamente sconosciuti. Esempi in cui si richiede di risolvere problemi di pianificazione e schedulazione nel contesto attuale sono la turnazione del personale sanitario nelle strutture ospedaliere e l’assistenza a pazienti contagiosi in corsia con l’ausilio di robot collaborativi.
Dal punto di vista della ricerca in AI, per trovarsi maggiormente preparati ad affrontare la prossima pandemia, bisognerebbe forse lavorare già da ora ad approcci ibridi che combinano i due approcci (data-driven e model-driven).
L’incertezza nell’intelligenza artificiale
Incertezza è la parola che nelle ultime settimane abbiamo sentito riecheggiare più spesso, con riferimento sia al presente che al futuro. Un articolo pubblicato recentemente su Harvard Business Review racconta di uno studio realizzato nell’arco di cinque anni proprio su questo tema, analizzando la reazione umana all’ignoto. Pare che noi umani non siamo impotenti di fronte all’incertezza. E l’AI invece?
L’AI vanta una lunga tradizione di ricerca sull’incertezza nelle sue varianti. L’interesse per il tema nasce dalla constatazione che l’incertezza pervade il mondo che ci circonda, e quindi non può essere trascurata da un sistema dotato di AI. Dalla tradizione di ricerca sul tema si può attingere a piene mani a una serie di metodi per modellare la situazione emergenziale che stiamo vivendo e trattare opportunamente le varie forme di incertezza che la caratterizzano.
Una prima forma di incertezza è proprio quella che si applica alle previsioni di eventi futuri o per l’ignoto (anche nel presente) ed è solitamente catturata dalla nozione di probabilità. I modelli probabilistici giocano un ruolo importante in AI, soprattutto in machine learning i cui algoritmi – come sappiamo – sono spesso progettati a scopo predittivo. Infatti, si assume che gli esempi di addestramento provengano da una qualche distribuzione di probabilità, generalmente sconosciuta e considerata rappresentativa dello spazio delle occorrenze del fenomeno oggetto dell’apprendimento. L’algoritmo ha poi il compito di costruire un modello probabilistico generale dello spazio delle occorrenze, un modello che gli consenta di fare previsioni sufficientemente accurate su nuovi casi.
Oltre all’incertezza intesa come probabilità che una certa affermazione sia vera o falsa, vi è l’incertezza dovuta alla soggettività della percezione. In tal caso si parla più propriamente di imprecisione o, nelle forme estreme, di vaghezza. Le affermazioni imprecise non sono semplicemente vere o false, ma sono più o meno vere o più o meno false. Questa gradualità nella veridicità dell’affermazione ci consente di catturarne l’imprecisione, di formalizzarla in qualche modo per poterla trattare nei sistemi di AI. Lo strumento matematico più comunemente utilizzato a tal scopo è la logica fuzzy, una logica in grado di cogliere appunto le sfumature del linguaggio naturale. Una frase quindi del tipo: “Il rischio di contrarre il Covid-19 per le persone con insufficienza respiratoria è alto” può ritenersi imprecisa, senza tuttavia fallire lo scopo della comunicazione. L’uso di una scala per il livello di rischio (per esempio, basso, medio ed alto) infatti, è sufficiente a veicolare il messaggio di avvertimento al cittadino pur in assenza di misurazioni precise del rischio.
Una condizione che può portare all’incertezza è l’informazione incompleta, tipica di fenomeni parzialmente osservabili come quello che riguarda la pandemia attuale. In tal caso, un agente intelligente prende le sue decisioni sulla base delle informazioni in suo possesso, affidandosi ad una conoscenza evidentemente parziale del mondo. Ma su quali ipotesi si fonda la gestione dell’informazione incompleta?
Nei sistemi informativi tradizionali, ciò che non è esplicitamente presente come dato è da considerarsi falso. Si dice quindi che vale l’ipotesi di mondo chiuso. In un sistema basato su AI, invece, si assume solitamente l’ipotesi di mondo aperto, secondo cui ciò che non conosciamo, ciò di cui non abbiamo dati disponibili, potrebbe essere comunque vero. Va da sé che le conclusioni che si possono trarre a partire dai medesimi dati possono divergere fortemente a seconda dell’ipotesi sottostante sul mondo. Questa sostanziale differenza nel trattamento dell’informazione incompleta rappresenta un punto cruciale su cui soffermarsi quando si intende procedere all’analisi dei dati relativi alla pandemia in corso.
L’AI tra affidabilità ed etica
Una questione che merita particolare attenzione, soprattutto in questo momento storico, è quella della fiducia che i cittadini possono riporre nelle tecnologie basate su AI. L’Unione Europea si era già espressa a riguardo, rilasciando ad aprile 2019 un documento contenente alcune linee guida per un’AI affidabile (trustworthy AI). Nel documento si raccomanda che l’AI sia conforme alle leggi e ai regolamenti vigenti, rispettosa di principi e valori etici, e robusta sia da un punto di vista tecnico sia nella sua capacità di rispondere ai bisogni della società.
Per quanto riguarda gli aspetti etici, occorre sottolineare il riferimento implicito ad un sistema valoriale condiviso dai Paesi europei, stante l’impossibilità a definire un sistema universale di valori emersa già con il famoso esperimento sulle “macchine morali” promosso dal MIT di Boston. L’esperimento infatti aveva evidenziato alcune differenze significative fra il sistema valoriale del mondo occidentale e quello del mondo orientale, riflesso di tradizioni e culture secolari molto distanti fra loro, per esempio nell’importanza che si assegna agli anziani piuttosto che ai giovani all’interno della società. Il rapporto stesso fra individuo e collettività prevede uno sbilanciamento verso l’uno o verso l’altro elemento a seconda se si tratti di società ispirate alla democrazia liberale o all’ideologia comunista, come abbiamo avuto modo di constatare anche nelle diverse strategie attuate per la gestione dell’emergenza da Covid-19 a livello internazionale. L’influenza delle religioni è infine determinante sull’assetto del sistema valoriale. Si pensi ad esempio alle diverse visioni del mondo delineate da Cristianesimo e Confucianesimo. In Paesi come l’Italia, l’impronta cristiana è innegabile e pertanto non può essere trascurata quando si parla di etica in AI.
Una impostazione etica dell’AI è anche la richiesta della Rome Call for AI Ethics firmata in Vaticano il 28 febbraio 2020 dall’Accademia Pontificia per la Vita, IBM, Microsoft, Governo Italiano e Fao. Il documento nasce per sostenere un approccio etico all’AI e promuovere tra organizzazioni, governi e istituzioni un senso di responsabilità condivisa con l’obiettivo di garantire un futuro in cui l’innovazione digitale e il progresso tecnologico siano al servizio del genio e della creatività umana e non la loro graduale sostituzione. La cerimonia di firma ha concluso una tre giorni di lavori sul tema, che ha visto una massiccia partecipazione nonostante il crescente allarme per la diffusione del coronavirus. In quel convegno, l’ultimo a cui ho partecipato in presenza prima della fatidica data del 9 marzo 2020, molto spazio è stato dato alle applicazioni di AI in medicina e ai relativi dilemmi etici.
Collegato al tema dell’affidabilità è quello della spiegabilità (explainability) delle decisioni prese sulla base dei risultati di una elaborazione fatta con tecniche di AI. Il diritto alla spiegazione è sempre più reclamato dai cittadini che invocano maggiore trasparenza dei processi decisionali. Da questo punto di vista sono da preferire quelle tecniche che seguono l’approccio model-driven perché si prestano naturalmente a fornire una spiegazione grazie alla presenza di un modello sottostante. La possibilità di ottenere una spiegazione contribuisce ovviamente ad accrescere la fiducia dei cittadini nei confronti delle tecnologie di AI.
L’AI per il mondo che verrà
L’emergenza attuale è soprattutto sanitaria. Tuttavia, si intravedono già i segni dell’emergenza socio-economica che presto irromperà in tutta la sua gravità e preoccuperà anche più di quella sanitaria. E quindi, se è vero che l’AI non possa far molto contro questa pandemia per le ragioni evidenziate, è anche vero che invece potrà fare molto nel post Covid-19 a patto che si investa fortemente nello sviluppo e/o applicazione di tecnologie AI per il bene comune. Si pensi ad esempio all’utilizzo della robotica cognitiva per l’assistenza domiciliare agli anziani e più in generale alle persone più fragili della nostra società.
La Associazione Italiana per l’Intelligenza Artificiale (AIxIA), nata nel 1988 e considerata da sempre il riferimento per la comunità scientifica italiana del settore, ha negli ultimi anni dedicato molto spazio al dibattito pubblico sull’impatto dell’IA sulla società, sull’economia, sull’ambiente, evidenziandone le criticità ma anche le notevoli opportunità, in particolare rispetto agli obiettivi dell’Agenda 2030 per lo Sviluppo Sostenibile dell’ONU. Questa pandemia, o per meglio dire il mondo che ne verrà fuori, è forse la prima vera occasione concreta per mettere in pratica molte delle raccomandazioni contenute nelle linee guida europee sull’AI affidabile (riprese anche nel documento del Vaticano).
Una particolare attenzione a mio avviso meriterà il tema dell’inclusione nelle sue varie declinazioni, dal superamento del digital divide alla promozione della presenza femminile nelle Stem e in Ict. La persistenza di disuguaglianze e discriminazioni, ulteriormente aggravate dalla emergenza Covid-19, non potrà che ridurre la fiducia negli algoritmi di AI che su quelle disuguaglianze vengono addestrati e/o progettati e che a loro volta finiscono per amplificare, alimentando un circolo vizioso che va spezzato prima che sia troppo tardi. E quindi, ancora una volta, ci ritroveremo a dover fare i conti con noi stessi e con la nostra, spesso scarsa, consapevolezza deI come e quanto ci lasciamo guidare da pregiudizi e stereotipi nell’agire quotidiano. Perchè non vi è intelligenza artificiale che possa ovviare alla stupidità umana.