Prima che il 2020 diventasse l’anno in cui la pandemia globale ha sconvolto il mondo, se mi avessero chiesto quale sarebbe stato il fattore di cambiamento più importante dell’anno, avrei risposto senza esitare l’intelligenza artificiale (AI) e più specificamente il ramo dell’AI noto come apprendimento computazionale. Alla fine di quest’anno tormentato, risponderei nella stessa maniera, anzi mi sembra che la pandemia di Covid-19 abbia agito come moltiplicatore e acceleratore del progresso in AI. D’altro canto, la capacità di accelerare il progresso tecnologico “on demand” che abbiamo acquisito è forse la ragione principale per cui alla fine la pandemia non causerà tanti decessi quanto, ad esempio, l’epidemia di influenza “spagnola” del 1918-19, che uccise 50 milioni di persone. Tornando all’intelligenza artificiale, non c’è dubbio che i modelli di apprendimento computazionale e le macchine intelligenti abbiano giocato un ruolo importante nella lotta contro questa epidemia e altre che potremmo affrontare in futuro; ma è anche vero che la pandemia ha modulato le priorità della ricerca in AI. Diamo uno sguardo ai cinque risultati di ricerca, le cinque innovazioni del 2020 che promettono di avere la massima influenza sulla ricostruzione delle nostre vite.
1- Human Mobility e i bollettini previsionali del comportamento umano
Durante la pandemia ci siamo resi conto di come sia difficile analizzare e interpretare rapidamente i dati sulla diffusione del virus nel mondo. Governi, organizzazioni sanitarie, centri di ricerca accademica e industria hanno dovuto trovare nuovi modi di raccogliere, aggregare ed elaborare le informazioni. Nel 2020, i progressi nelle tecnologie di comunicazione hanno permesso di individuare i focolai e imporre misure di contenimento, ma soprattutto hanno creato una piattaforma di acquisizione dei dati di mobilità. Non lasciatevi ingannare dal successo parziale delle applicazioni di notifica come Immuni: la registrazione automatica dei contatti in forma anonima tra dispositivi mobili e la loro integrazione con i dati di mobilità disponibili sulla rete mobile permetteranno di calibrare modelli spazio-temporali ad alta risoluzione per la previsione della mobilità collettiva. Questo filone di ricerca, in cui operano anche realtà di punta italiane, promette la disponibilità di “bollettini previsionali”, anonimi ma molto precisi, sui comportamenti collettivi. Il mio candidato all’innovazione dell’anno è tricolore: si tratta di Human Mobility, il cui motore algoritmico incorpora tecniche di AI per passare dallo spazio degli eventi (le geolocazioni dei terminali) a quello semanticamente più ricco delle attività umane.
Molta ricerca resta da fare in questo ambito, ma l’impatto per l’industria dei servizi di un “ascensore semantico“ che capisce dagli eventi quali siano le attività potrebbe essere paragonabile a quello che negli anni Settanta ebbe la disponibilità dei bollettini meteorologici per l’industria dei trasporti. Grazie alla precisione della previsione del tempo a breve termine, la gran parte di noi ha percorso decine migliaia di chilometri in aereo senza mai sperimentare una turbolenza grave; allo stesso modo, la futura disponibilità di bollettini di previsione dei comportamenti, sviluppati sotto la pressione della pandemia, permetterà di dimensionare dinamicamente i servizi in modo da farci vivere senza mai sperimentare un viaggio in piedi in un vagone sovra-affollato.
Carta delle migrazioni, fonte Human Mobility
2-AlphaFold e le nuove scienze della vita
Durante la pandemia, l’opinione pubblica internazionale e la politica hanno chiesto alla ricerca una cosa sola: trovare una cura e trovarla in fretta. La comunità scientifica internazionale ha reagito con uno sforzo senza precedenti. La crescita della sola letteratura scientifica e medica è stata enorme, con oltre 28.000 articoli riguardanti Covid-19 pubblicati nei primi tre mesi del 2020. L’intelligenza artificiale si è anche mobilitata per permettere ai ricercatori di sfruttare la massa di dati creati dai loro colleghi: i motori di ricerca alimentati dai nuovi modelli per l’elaborazione del linguaggio naturale (NLP) hanno reso possibile a tutti i ricercatori di beneficiare dell’assistenza dell’intelligenza artificiale nello sfruttare i dati biologici, aumentandone quindi il valore. Insieme agli articoli scientifici, la ricerca nelle scienze della vita ha generato dati e immagini che possono essere usati e ricombinati per eseguire altra ricerca. Oltre all’estrazione rapida dei profili genetici, oggi possiamo estrarre in forma digitale le strutture delle proteine (la stessa tecnica perfezionata per i test Covid rapidi, che leggono la struttura delle proteine principali del virus) e persino i lipidi e il biota batterico degli individui. La creazione di dati biologici direttamente in forma digitale, una volta eseguibile solo in laboratori costosi e in tempi lunghi, è oggi possibile rapidamente e a basso costo grazie a modelli di apprendimento computazionale che aiutano a rappresentare digitalmente e classificare le strutture proteiche nello spazio tridimensionale.
Gli stessi dati sono poi inviati a modelli predittivi in grado di fare diagnosi accurate e di prevedere le azioni delle molecole dei farmaci, oppure di sviluppare vaccinazioni più efficaci e più durature. Molte delle più sfide delle scienze della vita e non solo, come la sintesi di enzimi che abbattono i rifiuti industriali, sono fondamentalmente legate al trattamento dei dati proteomici. Il mio candidato all’innovazione dell’anno è il modello proteomico sviluppato da AlphaFold, che ha amplificato ulteriormente l’impatto che l’AI sta avendo sul progresso delle scienze della vita e della salute. Questo modello ha segnato un passo avanti decisivo verso la soluzione dello storico “problema del ripiegamento delle proteine”, quello di prevederne la forma tridimensionale partendo dalla composizione biochimica determinata dal genoma. La forma delle proteine è strettamente collegata alla loro funzione e la capacità di prevederne la struttura è alla base della previsione di come interagiranno con i farmaci.
3- GPT-3 e la percezione integrata parole-immagini
Il 2020 è stato l’anno dell’integrazione tra trattamento del linguaggio naturale e visione delle macchine, di cui abbiamo già parlato più volte su queste colonne. La struttura vettoriale dello spazio delle frasi testuali (i cosiddetti vector language model) e la possibilità di trasformare i vettori che rappresentano le frasi in quelli che rappresentano immagini erano state comprese e descritte già negli anni Dieci di questo secolo, ma il 2020 è stato l’anno della scoperta (o invenzione?) dell’algoritmica veloce per creare e manipolare vettori di questo tipo. Il mio candidato a innovazione dell’anno in questo campo è il Generative Pre-training Transformer 3 (GPT-3), un modello di linguaggio auto-regressivo proprietario (appartiene a Microsoft, anche se ha un’interfaccia d’uso aperta alla comunità) che utilizza l’apprendimento profondo per produrre testo simile a quello umano. Si tratta della terza generazione di una serie, GPT-n, impostata da OpenAI, un laboratorio di ricerca sull’intelligenza artificiale con sede a San Francisco. La versione completa di GPT-3 è una rete neurale di dimensioni senza precedenti, composta da 175 miliardi di parametri.
Per capire l’importanza di questa terza tappa rispetto alle precedenti, bisogna sapere che nei modelli generativi non sono tanto importanti gli output, cioè i testi fasulli indistinguibili dai testi veri (i finti sonetti di Shakespeare, o le terzine pseudo-dantesche che circolano in Rete), quanto le rappresentazioni vettoriali dei testi generati che questi modelli sintetizzano al loro interno. Questi vettori sono fondamentali per addestrare i sistemi che devono decidere quali risposte dare a testi mai visti prima.
Fino a GPT-3, il modello di linguaggio più grande era Turing NLG, sempre di Microsoft, introdotto nel febbraio 2020. Turing NLG aveva una capacità di 17 miliardi di parametri, meno del 10% rispetto a GPT-3. Con questo salto di qualità, i modelli generativi sono pronti a fornire la materia prima per addestrare sistemi che integrino la generazione del linguaggio e quella delle immagini, ottenendo i primi esempi di sistemi intelligenti dotati di una capacità percettiva e generativa integrata per occhio, voce ed orecchio. Secondo molti, l’acquisizione della capacità di commentare la realtà (o la fantasia?) da parte delle macchine farà emergere un concetto nuovo di responsabilità e la necessità di regolamentarla.
Video: GPT-3 , i nuovi algoritmi sviluppati da OpenAI (in inglese)
4-Fujitsu e l’autenticazione biometrica su larga scala
Un impatto inatteso dell’obbligo di portare le mascherine è stato l’abbandono forzato dei sistemi di identificazione e autenticazione basati sul viso, su cui ricerca e industria avevano investito largamente. Molti di noi hanno tirato un respiro di sollievo, visto che, al di là del controllo dell’identità, l’idea di permettere ai modelli di intelligenza artificiale di prendere decisioni che ci riguardano sulla base dei vettori caratteristici delle nostre facce suscita qualche eco lombrosiana. Il 2020 ha visto lo sviluppo di modelli di apprendimento computazionale in grado di usare i segnali biometrici (in primis, EEG e ECG) e comportamentali, e persino di identificarci guardando il nostro corpo (invece della nostra faccia). L’identificazione rapida delle persone attraverso dati biometrici rilevati da postazioni fisse e droni e l’attribuzione trasparente delle persone a categorie (ad esempio, classi di rischio) nata per rilevare i sintomi del Covid, sono ora alla portata della tecnologia. I sondaggi suggeriscono che il pubblico post-Covid è diventato più tollerante nei confronti di tecniche di sorveglianza che in precedenza sarebbero state considerate draconiane. Il sistema di autenticazione su larga scala “as a service” è stato oggetto di progetti avanzati che saranno annunciati nel 2021.
Tra quelli pubblici quest’anno, il mio candidato è la prima applicazione in grande stile, la “frontiera virtuale” promessa da un consorzio guidato da Fujitsu per l’Irlanda del Nord post-Brexit, è ora prevista per 2022.
5-QCWare e il vantaggio quantistico
L’obiettivo dell’apprendimento computazionale è ottimizzare le prestazioni dei modelli che calcolano classificazioni o previsioni secondo qualche funzione di costo che esprime la probabilità di errore. Normalmente l’apprendimento supervisionato e non supervisionato sono descritti in modo diverso, ma hanno qualcosa in comune: una classe generale di funzioni di costo basate sulla teoria dell’informazione che si applicano a entrambi gli schemi di apprendimento e generalizzano la nozione classica di divergenza. Minimizzare queste funzioni per tentativi è costoso in termini computazionali e anche in termini dell’energia che richiede. La ricerca ha dimostrato da tempo che è possibile far corrispondere queste funzioni alla dinamica di un sistema quantistico in grado di evolvere direttamente (e rapidamente) nella condizione di minimo.
Questo risultato potrebbe aprire la strada a una formulazione quantistica dell’intelligenza artificiale, liberando il “Prometeo quantistico” preconizzato trent’anni fa da Steven Rose. Fino a quest’anno, però, la difficoltà tecnica di rappresentare in forma quantistica i parametri del modello di apprendimento aveva bloccato la strada alla ricerca sperimentale. In luglio, QC Ware ha presentato un sistema per caricare i dati vettoriali classici sull’hardware quantistico e per eseguire sul computer quantistico le stime di distanza necessarie per la minimizzazione.
Conclusioni
Questi cinque risultati sono solo una parte dello sforzo collettivo che, sotto la pressione della pandemia, ha coinvolto quest’anno le migliori menti (umane) del pianeta. Un aforisma attribuito a Samuel Johnson dice che “quando qualcuno sa di dover essere impiccato tra due settimane, riesce a concentrarsi perfettamente”. La pressione della società sulla comunità scientifica rimarrà forte e ci si possono aspettare ulteriori scoperte nella ricerca sull’AI. Questo richiederà una cooperazione continua e si scala globale tra i governi e il settore privato. Questioni come l’accesso ai dati clinici e gli ostacoli allo scambio internazionale di informazioni saranno temi caldi anche nel prossimo anno.