analisi

Cloud GPU: come garantire la potenza di calcolo che serve all’azienda



Indirizzo copiato

Così un approccio innovativo all’approvvigionamento di capacità computazionali avanzate permette anche alle imprese meno strutturate di abilitare modelli e applicazioni basati sull’intelligenza artificiale. Il punto di vista di Davide Capozzi, Innovation Director di WIIT 

Pubblicato il 7 ott 2024



Cloud GPU

Allo stato attuale, ci sono pochi motivi per dubitare che sarà il Cloud GPU il motore della prossima rivoluzione digitale, il cui fulcro – è quasi superfluo ricordarlo – è costituito dalle tecnologie di intelligenza artificiale.

Tecnologie che possono esprimere il massimo potenziale e dare la giusta spinta all’innovazione di business solo a patto che le imprese riescano a supportare le applicazioni moderne fornendo loro la potenza di calcolo di cui hanno bisogno, nel momento stesso in cui ne hanno bisogno.

Cloud GPU, l’intelligenza artificiale non è più un optional (nemmeno in Italia)

Non si tratta più, d’altra parte, di una scelta opzionale: rinviare l’adozione di questi strumenti, e gli investimenti che comportano, non significa solo perdere terreno rispetto a competitor digitalmente più evoluti. In gioco c’è la stessa capacità dell’impresa di adattarsi a un mercato in continua trasformazione, e che anche in Italia sta assumendo una fisionomia ben precisa: solo nel nostro Paese, infatti, il giro d’affari legato alle soluzioni di AI ha fatto segnare nel 2023 una crescita del 52%, con un valore complessivo di 760 milioni di euro.

La stima è dell’Osservatorio Artificial Intelligence del Politecnico di Milano, secondo il quale gli investimenti ruotano soprattutto intorno alle piattaforme di analisi e interpretazione di testi per ricerca semantica, agli strumenti di classificazione, sintesi e spiegazione di documenti e agli agenti conversazionali tradizionali.

Tuttavia, cominciano a prendere piede anche i progetti Generative AI, il cui valore ha raggiunto i 38 milioni di euro. Più nello specifico, le soluzioni di Data Exploration & Prediction, Decision Support & Optimization Systems pesano per il 29% della spesa. Il 27% è dedicato a Text Analysis, Classification & Conversation Systems. I Recommendation Systems fanno registrare il 22% del giro d’affari, mente il 10% è ascrivibile all’analisi di video e immagini. Process Orchestration Systems e Generative AI, infine, pesano rispettivamente per il 7 e il 5%.

Cloud GPU, le sfide per l’approvvigionamento delle risorse computazionali

Le imprese hanno dunque sempre più bisogno di infrastrutture che assicurino le risorse computazionali necessarie a supportare ciascuna fase del cambiamento. Complice l’affermazione del metaverso e delle X-reality, oltre ai sistemi di AI, infatti, sono destinati a mutare profondamente anche i workload applicativi, aggiungendo al fabbisogno dalle classiche Central Processing Unit (CPU) alle Graphics Processing Unit (GPU).

Il problema è che garantire questo fabbisogno può rivelarsi estremamente oneroso. Soprattutto se si punta a costruire un’architettura proprietaria, che nel tempo avrà bisogno di non solo di essere mantenuta, aggiornata ed espansa – in un mercato sempre più affamato di GPU – ma anche e soprattutto gestita sotto il profilo dei consumi energetici, visto che parliamo di unità di elaborazione estremamente energivore.

“Ed è proprio qui che entra in gioco il Cloud GPU”, dice Davide Capozzi, Innovation Director di WIIT. “Parliamo di un nuovo approccio all’erogazione della potenza di calcolo: con il Cloud GPU, come del resto suggerisce il termine – le risorse computazionali per l’AI diventano on demand e possono essere integrate nei workflow, nuovi o esistenti, seguendo le specifiche esigenze del business e adattandosi ai vari use case, senza che le imprese siano costrette ad acquistare e installare macchine e processori”.

Così il Cloud GPU può democratizzare l’accesso all’intelligenza artificiale

Il cloud, del resto, è sempre stato un democratizzatore di tecnologie, e secondo Capozzi sarà l’elemento dirompente nella costruzione della catena del valore che occorre per portare l’intelligenza artificiale direttamente all’utente finale, avvantaggiando tutti i player che si trovano lungo la filiera, a prescindere dalle loro effettive capacità di spesa e dalle competenze di cui dispongono.

Le grandi aziende hanno decisamente meno difficoltà a dotarsi di tecnologie di ultima generazione. Lo dimostrano le iniziative intraprese per esempio da un colosso come Leonardo, che ha messo intelligenza artificiale, realtà aumentata, robotica e sistemi di automazione al centro di una strategia organica: lo specialista delle soluzioni in Aerospazio, Difesa e Sicurezza intende utilizzare l’AI come driver di crescita di tutte le piattaforme del gruppo, facendo leva su progetti di innovazione basati sulla forza computazionale di davinci-1. Il supercomputer sviluppato in house da Leonardo è a disposizione, oltre che del network degli undici Leonardo Lab, anche del progetto New Engineering & Manufacturing Enhanced System Innovation (Nemesi), che sta trasformando il sito produttivo di Pomigliano d’Arco (NA) in una vera smart factory. Si parla di un totale di circa 113 milioni di euro di investimenti, che si aggiungono al budget di 270 milioni del periodo 2019-2022 e a ulteriori 150 milioni da utilizzare entro il 2026 per potenziare gli stabilimenti di Campania e Puglia.

E che dire di Meta? La società sta ipotecando il suo futuro sullo sviluppo di applicazioni AI based, e ha rivisto al rialzo le previsioni di spesa per l’anno in corso a 35-40 miliardi di dollari (la precedente stima era di 30-37 miliardi di dollari). Una mossa dettata dalla necessità di dotarsi di infrastrutture adeguate, a partire dai data center, e di potenziare le attività di ricerca e lo sviluppo, che includono anche la progettazione di chip ad hoc. Se confermata, si tratterebbe della più grande immobilizzazione di risorse nella storia del gruppo creato da Mark Zuckerberg.

“Quando appartieni a realtà di tali dimensioni non ci sono problemi di accesso alle tecnologie di frontiera”, nota Capozzi. “Ma se lavori in una PMI e vuoi utilizzare questo tipo di soluzioni, come fai? Non mi riferisco certo ai computer quantici che stanno realizzando alcuni grandi player, ma anche, più banalmente, a un private Language Large Model, essenziale per dare vita alla magia dell’interfaccia conversazionale. Per poter pensare di mettere in piedi applicazioni che ne fanno uso, occorre avere a disposizione modelli di AI generativa, che devono attingere alle risorse computazionali che soltanto le GPU possono garantire”.

Cosa significa industrializzare il Cloud GPU

Se già da qualche tempo sono disponibili modelli privati offerti da cloud provider che risiedono in territorio europeo – quindi compliant con lo scenario normativo che regola il trattamento dei dati utilizzati per addestrare le piattaforme – il Cloud GPU viene ancora percepito come una vera e propria novità.

“Parliamo di servizi lanciati nell’ultimo anno e che, in virtù proprio della loro peculiarità, spesso non risultano nemmeno a catalogo: sono spesso pensati espressamente per le aziende che scelgono di attivare algoritmi di intelligenza artificiale e machine learning e che contestualmente ricevono la possibilità di consumare da remoto singole GPU o porzioni di esse, da utilizzare in modo specifico per i progetti avviati”.

Industrializzare questo approccio significa per i cloud provider come WIIT mettere a disposizione dei clienti che ne fanno richiesta istanze su misura: partizioni di architettura ottimizzate che consentono alle imprese di ottenere la capacità computazionale specifica per far girare le applicazioni basate sull’intelligenza artificiale senza né sostenere pesanti immobilizzazioni finanziarie, né sviluppare competenze necessarie a gestire l’infrastruttura.

“Il Cloud GPU, a mio avviso, sarà dirompente, proprio perché offrirà sostegno alla diffusione delle soluzioni basate sull’AI a prescindere dagli aspetti dimensionali del business”, rimarca Capozzi. “Ci troviamo ormai alla terza ondata di hype suscitata dall’intelligenza artificiale. La prima fu negli anni ‘70, la seconda negli anni ‘90, e sappiamo che in entrambe le occasioni l’entusiasmo si smorzò piuttosto in fretta. Ma stavolta è diverso, proprio perché grazie alla capacità di scala del cloud l’intelligenza artificiale può arrivare direttamente al consumer. E c’è un altro aspetto fondamentale”, chiosa il manager di WIIT: “Se queste previsioni si riveleranno esatte, ci troveremo a dover affrontare il problema di gestire un numero sempre maggiore di strutture ad alto impatto energetico e ambientale: riuscire a centralizzarle e a ottimizzarle sotto il profilo delle prestazioni, minimizzando il consumo di elettricità e dell’acqua necessaria al raffrescamento degli impianti sarà essenziale rendere l’intelligenza artificiale anche sostenibile”.

Contributo editoriale sviluppato in collaborazione con Wiit

Articoli correlati

Articolo 1 di 4