L’intelligenza artificiale sta imponendo una trasformazione radicale dell’infrastruttura tecnologica. I responsabili delle tecnologie aziendali devono assicurarsi che le loro infrastrutture cloud e private siano pronte a gestire le future esigenze di dati, che richiederanno nuove architetture informatiche con maggiore capacità, velocità e costi operativi inferiori.
L’aumento esponenziale dei dati
Per anni, i servizi cloud e le reti private hanno gestito quantità di dati relativamente limitate. Tuttavia, con l’avvento dell’AI e dell’apprendimento profondo, che incorporano grandi quantità di foto, video, suoni e linguaggio naturale, i dati sono passati da gigabyte e terabyte a unità molto più grandi come petabyte ed exabyte. Questo aumento esponenziale richiede che i sistemi informatici, incluso il cloud, si espandano per archiviare tutti questi dati.
La sfida della velocità e dei costi operativi
Oltre all’espansione della capacità di archiviazione, è essenziale accedere a queste informazioni a una velocità molto più elevata e a costi operativi inferiori. Alcune aziende hanno già iniziato a sviluppare la prossima generazione di infrastrutture. CoreWeave, un provider di cloud computing che offre ai clienti l’accesso ai chip AI avanzati di Nvidia, ha focalizzato l’attenzione su questo mercato emergente. A maggio, CoreWeave ha annunciato un round di finanziamento azionario da 1,1 miliardi di dollari, valutando la startup a 19 miliardi di dollari, oltre a 7,5 miliardi di dollari di finanziamento del debito da parte di investitori come Blackstone, Carlyle Group e BlackRock. Anche Nvidia è un investitore.
Innovazione nel software: Il caso di Vast Data
CoreWeave è a sua volta cliente di una startup chiamata Vast Data, che affronta la modernizzazione del cloud e delle reti private dal punto di vista del software. Vast ha sviluppato un sistema operativo più veloce, economico e scalabile per tutti i tipi di reti distribuite. “La nostra visione era quella di costruire un’infrastruttura per questi nuovi carichi di lavoro AI”, ha dichiarato Renen Hallak, amministratore delegato e fondatore dell’azienda, al Wall Street Journal.
La trasformazione dell’archiviazione dei dati
Storicamente, l’archiviazione dei dati è stata organizzata in livelli, con i dati recenti e ad alta priorità facilmente accessibili e quelli più vecchi sepolti più in basso. “Con i nuovi carichi di lavoro AI non è più così”, ha spiegato Hallak. Una volta che si dispone di un buon modello di AI, è necessario fare inferenze su tutta la storia per ottenere valore e riqualificare il modello con nuove informazioni. Questo richiede di leggere i dati più volte su molti petabyte e, in alcuni casi, exabyte”.
La necessità di una nuova infrastruttura tecnologica non riguarda solo i giganti della tecnologia, ma si estenderà sempre più in profondità nell’economia. Questo cambiamento è già in atto in alcune aziende ad alta intensità di dati come Pixar, che ha utilizzato l’AI per curare le fiamme della protagonista Ember Lumen nel film “Elemental” del 2023 e ha richiesto il doppio della capacità di dati rispetto al film “Soul” del 2020.