Le emissioni dei data center, negli Stati Uniti, sono triplicate dal 2018. Questi centri sono stati responsabili di 105 milioni di tonnellate metriche di CO2, pari al 2,18% delle emissioni nazionali. Circa il 4,59% dell’energia totale utilizzata negli Stati Uniti è destinata ai data center, un dato raddoppiato dal 2018. Lo rivela un nuovo studio realizzato da un team della Harvard T.H. Chan School of Public Health, in collaborazione con il Dipartimento di Informatica dell’Università di Pisa, che ha esaminato 2.132 data center operanti negli Stati Uniti (il 78% di tutte le strutture del Paese).
I data center sono essenziali per l’addestramento e l’uso dei modelli di intelligenza artificiale, richiedendo enormi quantità di energia per alimentare e raffreddare i server.
Data center: l’impatto dell’intelligenza artificiale
È difficile quantificare quanto l’intelligenza artificiale contribuisca a questo aumento delle emissioni, poiché i data center elaborano diversi tipi di dati. Tuttavia, la quota dell’AI sta crescendo rapidamente con l’adozione della tecnologia in quasi tutti i settori economici. Eric Gimon, del think tank Energy Innovation, osserva che l’aumento è significativo e che è ancora presto per ottimizzare l’efficienza energetica.
Molti data center si trovano in regioni produttrici di carbone, come la Virginia, con una “intensità di carbonio” dell’energia superiore del 48% rispetto alla media nazionale. Il 95% dei data center statunitensi è situato in aree con fonti energetiche più inquinanti rispetto alla media.
Il documento, pubblicato su arXiv e non ancora sottoposto a peer-review, ha rilevato che il 95% dei data center negli Stati Uniti è costruito in luoghi con fonti di elettricità più sporche della media nazionale.
Falco J. Bargagli-Stoffi, autore del documento, sottolinea che l’energia più sporca è disponibile durante tutto il giorno, necessaria per mantenere i data center operativi 24 ore su 24.
“Quando si passa alle immagini e ai video, le dimensioni dei dati aumentano in modo esponenziale”, afferma Gianluca Guidi, dottorando in intelligenza artificiale presso l’Università di Pisa e l’IMT di Lucca, autore principale dell’articolo. Se a questo si aggiunge un’adozione più ampia, le emissioni salteranno presto.
Uno degli obiettivi dei ricercatori era quello di costruire un modo più affidabile per ottenere istantanee di quanta energia i data center stanno utilizzando. È stato un compito più complicato di quanto ci si possa aspettare, dato che i dati sono dispersi in una serie di fonti e agenzie. Ora hanno costruito un portale che mostra le emissioni dei centri dati in tutto il Paese. L’obiettivo a lungo termine della pipeline di dati è quello di informare i futuri sforzi normativi per limitare le emissioni dei data center, che si prevede cresceranno enormemente nei prossimi anni.
“Ci sarà una maggiore pressione tra la comunità attenta all’ambiente e alla sostenibilità e le Big Tech”, afferma Francesca Dominici, direttore della Harvard Data Science Initiative e altra coautrice. “Ma la mia previsione è che non ci sarà una regolamentazione. Non nei prossimi quattro anni”.
La transizione verso modelli AI complessi
L’intelligenza artificiale sta evolvendo verso modelli più complessi, come generatori di immagini, video e musica. OpenAI ha recentemente rilasciato il modello di generazione video Sora, che ha subito un enorme traffico di utenti. Altri modelli competitivi di Google e Meta potrebbero seguire presto. L’aumento delle dimensioni dei dati e l’adozione più ampia porteranno a un incremento delle emissioni.
Sfide future e regolamentazione
I ricercatori mirano a creare un sistema affidabile per monitorare il consumo energetico dei data center. Hanno sviluppato un portale che mostra le emissioni dei data center negli Stati Uniti, con l’obiettivo di informare future regolamentazioni per ridurre le emissioni.