ANALISI

Training dei modelli di AI: Google DeepMind sviluppa DiLoCo, soluzione decentralizzata



Indirizzo copiato

Distributed Low-Communication Training of Language Models è un metodo che consiste nel distribuire il compito di addestramento tra molti data center più piccoli, facendo a meno di enormi cluster di calcolo su misura, con i relativi costi iniziali. Ecco come funziona in dettaglio

Pubblicato il 10 gen 2025



DiLoCo

Appena 18 mesi fa, OpenAI ha addestrato GPT-4, il suo modello linguistico di grandi dimensioni (LLM) allora all’avanguardia, su una rete di circa 25mila unità di elaborazione grafica (GPU) di Nvidia, allora all’avanguardia. Ora Elon Musk e Mark Zuckerberg, capi rispettivamente di X e Meta, gareggiano a colpi di chip: Musk ha dichiarato di avere 100mila GPU in un centro dati e di volerne acquistare 200mila. Zuckerberg dice che ne acquisterà 350mila.

Continua a leggere questo articolo

Articoli correlati