NVIDIA GTC 2025

Nvidia svela il nuovo chip AI Vera Rubin, l’architettura Blackwell e tanto altro



Indirizzo copiato

Durante la conferenza annuale a San Jose, il CEO di Nvidia, il Ceo Jensen Huang ha discusso di infrastrutture AI, nuove soluzioni enterprise e innovazioni in robotica, sottolineando l’impegno di Nvidia nel potenziare l’intelligenza artificiale attraverso hardware e software avanzati

Pubblicato il 19 mar 2025



Nvidia GTC 2025 Huang

Nvidia svela la prossima generazione di chip per l’intelligenza artificiale, puntando sulla crescente domanda di potenza di calcolo. Durante la conferenza annuale GTC a San Jose, il CEO Jensen Huang ha presentato il chip Vera Rubin, progettato per rispondere all’appetito crescente per chip e software sempre più veloci.

Ecco, per sommi capi, di cos’altro ha parlato Huang nel suo discorso:

  • Blackwell, la nuova architettura di GPU che promette prestazioni notevolmente superiori per l’intelligenza artificiale, in particolare per carichi di lavoro di ragionamento e inferenza.
  • L’infrastruttura AI, inclusi data center e reti, è stata discussa come elemento cruciale, con l’introduzione di Dynamo per la gestione efficiente delle risorse e Spectrum X per la scalabilità.
  • NVIDIA sta estendendo le sue soluzioni AI al settore enterprise con nuove workstation DGX e sistemi di archiviazione accelerati, e nel campo della robotica con il modello di fondazione Groot N1, strumenti di simulazione Omniverse e Cosmos, e il motore fisico Newton sviluppato in collaborazione.

La presentazione di Huang ha evidenziato l’impegno di Nvidia nell’avanzamento dell’AI attraverso hardware, software e piattaforme per diversi settori.

Vera Rubin: un chip per il futuro

Vera Rubin (Wikipedia)

Il chip Vera Rubin, intitolato all’astronoma americana che ha scoperto la materia oscura, può essere sviluppato in cluster di milioni di unità. Questo permetterà di addestrare modelli AI molto più grandi e di offrire risposte più sofisticate a un numero maggiore di utenti.

Huang ha dichiarato che Nvidia sta lavorando ai “limiti della fisica” con il nuovo chip, che sarà disponibile nella seconda metà del 2026, seguito da una versione “ultra” l’anno successivo. Rubin sarà dotato di capacità avanzate di memoria e networking, insieme a una nuova CPU progettata su misura.

Presentazione del chip Vera Rubin NVL144 (Nvidia)

I punti salienti riguardanti Vera Rubin

  • Componenti rinnovati. L’architettura Vera Rubin introduce numerosi componenti completamente nuovi:
    • nuova CPU con prestazioni doppie rispetto a Grace, maggiore memoria e banda larga, con un consumo di soli 50 watt
    • GPU di nuova generazione chiamata CX9
    • nuovo networking smart NIC
    • nuovo MVLink
    • nuove memorie HBM4
  • MVLink 144: il sistema Vera Rubin utilizzerà MVLink 144, il che significa che sarà connesso a 144 GPU.
  • Scalabilità e prestazioni: Vera Rubin promette un significativo aumento delle prestazioni rispetto alle generazioni precedenti:
    • i flops di scale-up sono stimate essere 900 volte superiori a quelle di Hopper.
    • si prevede una riduzione notevole del TCO (Total Cost of Ownership) grazie a Vera Rubin.
  • Strategia di sviluppo: l’eccezione del telaio (che rimane lo stesso) permette di concentrare il rischio di sviluppo sulle nuove componenti interne.
  • Roadmap: Vera Rubin si colloca come la generazione successiva a Blackwell e Blackwell Ultra nella roadmap annuale di Nvidia per le architetture AI.

In sintesi, Vera Rubin rappresenta un salto generazionale significativo nell’architettura di calcolo di Nvidia, con componenti rinnovati che mirano a incrementare notevolmente le prestazioni e l’efficienza per le esigenze future dell’intelligenza artificiale su vasta scala.

La visione di Jensen Huang

Durante il suo discorso, Huang ha rassicurato gli investitori sul fatto che la spinta agli investimenti in infrastrutture AI continuerà a crescere. “Quasi tutto il mondo si è sbagliato”, ha affermato Huang, sottolineando che la richiesta di calcolo e la legge di scala dell’AI sono più resilienti e in realtà iper-accelerate.

WHITEPAPER

Massimizza l'efficienza: integra IT e OT per ottimizzare il monitoring SCADA

Industria 4.0/5.0
Data Storage

Le infrastrutture di calcolo e di rete si evolveranno in modo significativo per supportare le future esigenze dell’intelligenza artificiale su vasta scala. Il CEO di Nvidia, Jensen Huang, durante il GTC March 2025 Keynote, ha delineato diverse tendenze e sviluppi chiave:

  • Transizione verso il calcolo generativo: si sta passando da un modello di calcolo basato sul recupero di dati pre-esistenti a un modello generativo, in cui l’AI comprende il contesto e genera risposte. Questo richiede una potenza di calcolo molto maggiore.
  • Avvento dell’AI agentica e fisica: la prossima ondata di AI sarà caratterizzata da agenti capaci di percepire, ragionare, pianificare e agire, nonché da un’AI fisica che comprende il mondo tridimensionale e le leggi della fisica. Queste capacità aumenteranno ulteriormente la domanda di calcolo.
  • Necessità di risolvere i problemi di dati, addestramento e scalabilità: per far progredire l’AI, è fondamentale affrontare le sfide legate alla disponibilità e alla generazione di dati, all’addestramento efficiente dei modelli senza un intervento umano limitante e alla scalabilità delle risorse computazionali in modo che più risorse si traducano in AI più intelligenti.
  • Aumento esponenziale dei requisiti di calcolo per l’inferenza: l’inferenza, ovvero la generazione di token da parte di “fabbriche di token”, è un processo fondamentale che richiede efficienza e prestazioni estreme. L’AI agentica e i modelli di ragionamento generano una quantità di token significativamente maggiore rispetto ai modelli precedenti, richiedendo una potenza di calcolo drasticamente superiore.
  • Architetture di calcolo accelerate e scalabili: Nvidia sta sviluppando architetture come Blackwell, che offre un aumento significativo delle prestazioni rispetto alla generazione precedente (Hopper) a parità di potenza. Il passaggio da MVLink integrato a MVLink disaggregato e il raffreddamento a liquido consentono di creare computer con una potenza di calcolo enorme in un singolo rack (un exaflop). La roadmap futura prevede Blackwell Ultra, Vera Rubin e Rubin Ultra, con aumenti continui di prestazioni, memoria e banda larga.
  • Software per la gestione delle “fabbriche di AI”: è necessario un software sofisticato come Nvidia Dynamo, un “sistema operativo” per le fabbriche di AI, in grado di orchestrare e ottimizzare l’utilizzo delle risorse di calcolo per l’inferenza, gestendo parallelismo, batching e la cache KV.
  • Reti ad alta velocità e bassa latenza: per la scalabilità orizzontale (scale-out) su data center di grandi dimensioni, è fondamentale l’uso di reti ad alte prestazioni come Infiniband e Spectrum X. Nvidia sta anche investendo in silicon photonics co-packaged per superare i limiti di potenza e scalabilità dei transceiver tradizionali, consentendo la connessione di centinaia di migliaia o addirittura milioni di GPU.
  • Infrastrutture AI per diversi settori: Nvidia sta sviluppando infrastrutture AI specifiche per il cloud, l’enterprise e la robotica. Per l’enterprise, sono state annunciate nuove workstation personali (DJX Station) e piattaforme di sviluppo (DJX Spark) basate su architetture accelerate. Anche l’archiviazione dati si evolverà verso sistemi basati sulla semantica e accelerati dalla GPU.
  • Gemelli digitali per la progettazione e l’ottimizzazione di data center AI: la complessità delle fabbriche di AI richiede l’uso di gemelli digitali, come l’Nvidia Omniverse blueprint, per progettare, simulare e ottimizzare l’efficienza energetica e l’implementazione di queste infrastrutture su larga scala.

In sintesi, l’evoluzione delle infrastrutture di calcolo e di rete per l’AI su vasta scala sarà caratterizzata da un aumento massiccio della potenza di calcolo per nodo, da reti ad altissima velocità e bassa latenza per la scalabilità orizzontale, da software di gestione intelligente delle risorse e dall’adozione di gemelli digitali per la progettazione e l’ottimizzazione delle infrastrutture.

Nvidia prevede un futuro in cui l’AI sarà pervasiva e le infrastrutture di calcolo si evolveranno annualmente per supportare questa crescita.

GTC March 2025 Keynote with NVIDIA CEO Jensen Huang

Enterprise Computing: DGX Spark e DGX Station

DGX Spark

Nvidia GTC 2025
  • è una nuova linea di computer introdotta da NVIDIA per l’Enterprise.
  • è stata sviluppata in partnership con MediaTek, che ha fornito le 20 CPU core con un’interfaccia MVLink chip-to-chip con la GPU.
  • la GPU dispone di 128 GB di memoria e offre un petaFLOPS di potenza computazionale.
  • viene presentata come la piattaforma di sviluppo ideale per ingegneri software e ricercatori AI, paragonandolo scherzosamente al “gear of choice” e al “regalo di Natale perfetto” per tali professionisti.
  • le prime unità DGX Spark saranno riservate ai partecipanti del GTC.

DGX Station

Nvidia GTC 2025
  • è un’altra nuova linea di computer, specificamente una workstation personale, presentata come qualcosa che “il mondo non ha mai avuto prima”.
  • è equipaggiata con Grace Blackwell e raffreddamento a liquido.
  • offre una potenza di calcolo di 20 petaFLOPS e dispone di 72 CPU core con interfaccia chip-to-chip, memoria HBM e slot PCI Express per schede GeForce.
  • viene definita il “PC del futuro” e il computer dell’era dell’AI, destinato a data scientist e ricercatori in tutto il mondo.
  • sarà disponibile tramite tutti gli OEM (Original Equipment Manufacturer) come HP, Dell, Lenovo e ASUS.

In sintesi, sia DGX Spark che DGX Station rappresentano nuove linee di computer NVIDIA progettate per portare la potenza dell’AI nel mondo enterprise: DGX Spark focalizzato sullo sviluppo e DGX Station come workstation ad altissime prestazioni per la ricerca e la data science. Entrambi sfruttano le più recenti architetture NVIDIA e sono pensati per rispondere alle esigenze computazionali dell’era dell’intelligenza artificiale.

Le tre sfide nell’evoluzione dell’AI

Secondo quanto affermato da Jensen Huang nel suo keynote al GTC 2025, ci sono tre sfide fondamentali che guidano l’evoluzione dell’intelligenza artificiale:

  • Come risolvere il problema dei dati: l’AI è un approccio di informatica basato sui dati. Necessita di dati da cui apprendere, di esperienza digitale per acquisire conoscenza. La sfida consiste nel reperire e generare la quantità e la qualità di dati necessarie per l’addestramento efficace dei modelli di AI.
  • Come risolvere il problema dell’addestramento senza l’intervento umano: l’intervento umano nel ciclo di addestramento è limitante a causa della quantità di tempo disponibile. L’obiettivo è consentire all’AI di apprendere a velocità sovrumane e su scale che nessun umano può eguagliare. Pertanto, è cruciale sviluppare metodi di addestramento che riducano o eliminino la dipendenza dall’intervento umano diretto. L’utilizzo del reinforcement learning con ricompense verificabili, basate su problemi risolti nella storia umana e la generazione di enormi quantità di dati sintetici, rappresentano approcci per superare questa sfida.
  • Come scalare: è necessario trovare un algoritmo in cui, all’aumentare delle risorse fornite, l’AI diventi più intelligente. Questa “legge di scala” è fondamentale per il progresso dell’AI. Recentemente, si è compreso che il requisito di calcolo per l’AI è significativamente più alto del previsto, specialmente con l’avvento dell’AI agentica e del ragionamento. La scalabilità richiede quindi non solo più risorse computazionali, ma anche algoritmi e architetture che sappiano sfruttarle efficacemente.

Queste tre sfide interconnesse sono al centro dello sviluppo dell’AI e guidano la ricerca e l’innovazione nelle infrastrutture di calcolo, nelle metodologie di addestramento e nelle architetture dei modelli.

Conclusioni

Nonostante le sfide, Nvidia continua a mostrare una crescita impressionante, con un aumento del fatturato di quasi l’80% anno su anno nel suo quarto trimestre. Con l’introduzione di chip innovativi e tecnologie avanzate, Nvidia è ben posizionata per guidare la prossima ondata di innovazione nell’industria dell’intelligenza artificiale.

Articoli correlati

Articolo 1 di 4