Pochi ne parlano, eppure green e digital non sono sempre in sintonia. L’intelligenza artificiale, specie per i grandi modelli di NLP (Natural Language Processing), richiede una grande quantità di dati per essere addestrata e un forte consumo energetico per analizzare dataset da milioni di righe e migliaia di colonne. I cloud provider non sono sempre sostenibili e gli algoritmi, quando addestrati con i big data, sono difficilmente spiegabili e spesso presentano un comportamento discriminatorio. Small data, cloud sostenibili e few shot learning rappresentano il futuro di questa importante tecnologia per coniugare green e digital transformation per un futuro sostenibile.
AI e green: NLP e potenza computazionale
Può sembrare strano ma i progressi dell’intelligenza artificiale, soprattutto in ambito natural language processing non sono dovuti a reali avanzamenti scientifici, gli algoritmi sono più o meno gli stessi, ma abbiamo assistito a un esponenziale avanzamento delle strutture tecnologiche che ne supportano il training: molti più dati a disposizione, capacità di archiviare i dati in cloud e potenza computazionale a un prezzo sempre più accessibile grazie agli avanzamenti nel mondo hardware. Ed è proprio la potenza computazionale che presenta costi a dir poco esorbitanti per addestrare i grandi modelli di testo. Secondo una ricerca dell’MIT il costo di training di un modello di grandi dimensioni come il GPT-3 di Open AI o il BERT di Google è pari a 300 viaggi tra New York e San Francisco o il consumo complessivo della vita di cinque automobili. Non a caso è stato scoperto che il costo computazionale e quindi ambientale per la CO2 emessa da questi modelli è proporzionale alla mole di dati, il numero di architetture neurali e soprattutto il numero di fasi di fine tuning per raggiungere un livello di accuratezza sempre più importante. Da non dimenticare che la parte ambientale dell’ESG (la E appunto: environmental) tiene in grande considerazione sia la mole totale di Co2 emessa, spesso in rapporto alla dimensione dell’azienda o al numero di dipendenti, che la percentuale di energia elettrica consumata proveniente da fonti di energia rinnovabili, sia internamente che rispetto alla filiera di fornitori.
Algoritmi discriminatori
I problemi dell’intelligenza artificiale non si limitano certo all’impatto ambientale. Uno dei problemi più classici dell’intelligenza artificiale quando utilizzata per il decision making è proprio la difficoltà a capire come l’algoritmo prende una determinata decisione e quali elementi ha preso in considerazione. Quando si utilizzano grandi quantità di dati o algoritmi particolarmente complessi il problema si complica ulteriormente. Già molti istituti finanziari proibiscono di prendere decisioni di investimento senza avere una chiara spiegazione dietro al ragionamento della macchina, ancora più importante è quando sono proprio gli algoritmi a prendere decisioni che impattano direttamente sulle vite umane come la giustizia o le opportunità di lavoro.
Ad esempio, un algoritmo per riconoscere un candidato di successo per una posizione lavorativa aperta, addestrato con i dati storici di un ambiente puramente maschile, potrebbe discriminare il genere opposto riducendo la sua valutazione e violando così ogni sana politica aziendale. Molte aziende hanno già preso le distanze da casi di discriminazioni e bias di apprendimento, come Apple e la sua Apple card che tendeva a offrire linee di credito svantaggiose alle donne o il sistema sanitario degli Stati Uniti con il suo algoritmo per predire quale paziente avesse bisogno di maggiori cure che favoriva le persone bianche.
AI e green: dai Big data agli Small data
La buona notizia è che questi problemi non sono insormontabili e siamo ancora in tempo per gettare le basi di una società basata sulla sostenibilità ambientale e la parità di diritti, dobbiamo soltanto cambiare approccio. Fino ad oggi eravamo convinti che più dati significasse migliori decisioni e informazioni di valore. In molti casi è vero, ma è altrettanto vero che nella maggior parte dei contesti italiani le aziende non sono in grado di gestire questa mole di dati e soprattutto di metterla in contesto per prendere migliori decisioni.
Oggi l’azienda data driven parte degli small data, piccole quantità di dati interni raccolti direttamente dall’interazione tra l’azienda e il consumatore. Gli small data sono già contestualizzati e necessitano pochissimo training e analisi per poter generare valore.
Con gli small data si annulla il problema della potenza computazionale: non ho bisogno di trovare quel 0,0002% di valore all’interno di terabyte di informazioni emettendo tonnellate di CO2 ogni anno, mi basta creare una conversazione tra consumatore e azienda e analizzare, passo dopo passo, quali sono le sue preferenze a come aiutarlo e come indirizzarlo a prodotti o servizi. Con gli small data si sgonfia anche il problema delle decisioni a scatola nera. Le decisioni non vengono prese analizzando milioni di righe di dati storici ma in tempo reale mettendo in correlazione i sistemi aziendali e il comportamento dell’utente in tempo reale.
Gli small data, seguendo il consiglio del guru del neuromarketing Martin Lindstrom (video), sono stati senza dubbio fonte di ispirazione per numerose start-up che stanno permettendo alle aziende di entrare in pieno nella rivoluzione digitale in modo sostenibile ed etico. Raccogliendo dati contestuali e in tempo reale su tutti i touchpoint, l’azienda permette quindi di creare conversazioni personalizzate con ogni singolo utente con AI conversazionale, non accede a terabyte di dati esterni ma crea contesto con le informazioni che raccoglie sul momento con l’interazione con il consumatore.
Cloud sostenibili e Few shot learning
Per quanto riguarda architetture e infrastrutture, il discorso è sempre lo stesso: dobbiamo promuovere un modo etico ed eco-sostenibile di utilizzare l’intelligenza artificiale vista la sua enorme diffusione in ogni strato della società. Per quanto gli small data possono ridurre la mole di complessità da elaborare, training e archiviazione dei dati rappresenteranno sempre uno scoglio da superare per una tecnologia davvero green. Secondo il report dell’Unione Europea, nel 2020 oltre il 50% delle aziende archivia i propri dati internamente e una bassissima percentuale dei cloud provider, se pur di gran lunga più efficienti in termini di emissioni e consumo rispetto alle soluzioni locali, non sono sostenuti da una fonte di energia rinnovabile.
Amazon AWS, ad esempio, ha l’88% in meno di emissioni di carbonio oltra a una infrastruttura cloud che risulta 3,6 volte più efficiente del data center medio. Non solo nell’archiviazione dei dati è possibile fare un grande passo avanti, ma anche nelle tecniche di training che, come abbiamo visto, sono un fattore determinante nella produzione di emissioni. Di recente sperimentazione le tecniche di few-shot learning (FSL) e low-shot learning (LSL) danno la possibilità alle macchine di imparare una determinata attività avendo pochi dati a disposizione.