Gli ingegneri di Advanced Micro Devices (AMD) hanno progettato un chip per l’intelligenza artificiale chiamato MI300, lanciato un anno fa e che dovrebbe generare oltre 5 miliardi di dollari di vendite nel suo primo anno di rilascio. Nel frattempo, a nord di Austin, i designer di Amazon hanno sviluppato una nuova e più veloce versione di un chip AI chiamato Trainium 2. Questi sforzi riflettono un cambiamento nel mercato dei chip per l’intelligenza artificiale, dominato fino ad ora da Nvidia.
L’ascesa di nuovi competitors
Per anni, Nvidia ha dominato il settore grazie ai suoi chip che offrono una potenza di calcolo enorme per i compiti AI. Tuttavia, ora, chip sviluppati da AMD e Amazon stanno emergendo come alternative credibili. Secondo Daniel Newman, analista del Futurum Group, “per alcuni compiti cruciali di AI, i rivali di Nvidia stanno dimostrando di poter offrire velocità molto più elevate a prezzi molto più bassi.”
L’Importanza dell’inferenza
La competizione è guidata da aziende tecnologiche di grandi dimensioni, ma anche da start-up più piccole, che stanno adattando i loro chip per la fase di sviluppo dell’intelligenza artificiale chiamata “inferenza”. Cristiano Amon, CEO di Qualcomm, commenta: “Il vero valore commerciale arriva con l’inferenza, e l’inferenza sta iniziando a guadagnare scala.”
I rivali di Nvidia stanno anche imitando la strategia dell’azienda di costruire computer completi, non solo chip, per massimizzare la potenza e le prestazioni per i compiti AI Amazon ha annunciato la disponibilità di servizi di calcolo basati sui suoi nuovi chip Trainium 2, con testimonianze di potenziali utenti come Apple.
Amazon sta addirittura costruendo una sorta di gigantesca fabbrica di A.I. per la start-up Anthropic, in cui ha investito, ha dichiarato Matt Garman, amministratore delegato di Amazon Web Services. Questo “cluster” di calcolo disporrà di centinaia di migliaia di nuovi chip Trainium e sarà cinque volte più potente di tutti quelli utilizzati da Anthropic, ha dichiarato Tom Brown, fondatore e chief compute officer della start-up, che gestisce il chatbot Claude e ha sede a San Francisco. “Questo significa che i clienti otterranno più intelligenza a un prezzo inferiore e a velocità più elevate”, ha dichiarato Brown.
Prospettive future
Nonostante la crescente competizione, Nvidia non sembra in pericolo di perdere il suo vantaggio. Il CEO di Nvidia, Jensen Huang, ha sottolineato i vantaggi dell’azienda nel software AI e nella capacità di inferenza. Tuttavia, start-up ben finanziate come SambaNova Systems, Groq e Cerebras Systems stanno reclamando vantaggi di velocità significativi nell’inferenza, con prezzi e consumo energetico inferiori.
Gli attuali chip di Nvidia possono costare fino a 15.000 dollari l’uno; i chip Blackwell dovrebbero costare decine di migliaia di dollari l’uno.
AMD ha dichiarato di voler puntare ai chip Blackwell di Nvidia con i suoi nuovi chip AI in arrivo il prossimo anno. Nei laboratori di Austin, dove l’azienda testa in modo approfondito i chip, i dirigenti hanno dichiarato che le prestazioni di inferenza sono uno dei principali punti di forza. Un cliente è Meta, che afferma di aver addestrato il nuovo modello di AI, Llama 3.1 405B, utilizzando i chip Nvidia, ma di utilizzare i chip AMD MI300 per fornire risposte agli utenti.
Conclusioni
Amazon, Google, Microsoft e Meta stanno progettando i propri chip AI per accelerare compiti specifici e ridurre i costi. Amazon, spesso vista come un ritardatario in questo settore, sembra particolarmente determinata a recuperare terreno, con un investimento di 75 miliardi di dollari quest’anno in chip AI e altro hardware di calcolo. La competizione nel mercato dei chip per l’intelligenza artificiale è destinata a intensificarsi, con nuove tecnologie che promettono di offrire prestazioni migliori a costi inferiori.