OVHcloud, azienda europea attiva del Cloud e partner di NVIDIA, prosegue nello sviluppo del proprio portfolio di soluzioni AI integrando nuove offerte di GPU NVIDIA. Queste soluzioni costituiscono una componente distintiva della visione strategica di OVHcloud sull’intelligenza artificiale: soluzioni AI innovative, semplici e convenienti, caratterizzate da modelli etici, trasparenti e aperti che preservano la privacy dei dati.
OVHcloud sta progettando infrastrutture AI-enabled che comprendono le nuove GPU NVIDIA H100 e A100 Tensor Core, le migliori della categoria. I clienti potranno scegliere tra diverse opzioni per gestire i workload di machine learning più complessi, inclusi i modelli linguistici di grandi dimensioni.
Oltre alle soluzioni già disponibili a un prezzo competitivo, tra le quali rientrano GPU NVIDIA V100 e NVIDIA V100S, il Gruppo ha annunciato le nuove offerte GPU, NVIDIA H100, NVIDIA A100, NVIDIA L40S e NVIDIA L4, che vedranno un’implementazione effettiva nelle prossime settimane.
“L’AI trasformerà radicalmente le attività dei nostri clienti e noi siamo nella posizione per aiutarli nella transizione verso questa nuova era. Con un’infrastruttura AI unica nel suo genere, che sfrutta tutta la nostra esperienza e le GPU più richieste, forniamo prestazioni di assoluto livello con tutti i vantaggi del cloud. I nostri clienti che hanno acquistato soluzioni AI potranno anche beneficiare di queste novità, grazie alle nostre offerte, tutte semplici da usare, come AI Notebooks, AI Training e AI Deploy.” ha detto Michel Paulin, CEO OVHcloud.
Nuove istanze GPU con NVIDIA A100 per il training e l’inferenza del deep learning
Le nuove istanze GPU NVIDIA A100 da 80 GB sono già disponibili e consentono agli specialisti dell’AI di realizzare progetti complessi su core Tensor NVIDIA molto sofisticati. Con notevoli capacità di training del deep learning, A100 è ideale anche per l’esecuzione dell’inferenza, grazie alle varie ottimizzazioni implementate per questi workload, compresi i progetti legati all’LLM. Il calcolo ad alte prestazioni (HPC) è un altro campo in cui le istanze della GPU A100 possono contribuire alle innovazioni di prossima generazione, tramite simulazioni avanzate, elaborazione a doppia precisione e a una memoria a banda larga.
Le istanze di cloud pubblico basate su A100 possono essere configurate come A100-180 con 1x A100, 15 vCore e 180 GB di RAM, A100-360 con 2x A100, 30 vCore e 360 GB di RAM e A100-720 con 4x A100, 60 vCore e 720 GB di RAM.
Nuove istanze GPU con NVIDIA H100 per il training del deep learning
OVHcloud annuncia anche le prossime istanze GPU basate su H100 e costruite secondo l’ultimo acceleratore NVIDIA, con una potenza di calcolo che parte da 26 petaFLOPS (FP64) per GPU PCIe. Costruito appositamente per i modelli di AI più sofisticati, NVIDIA H100 è la soluzione migliore per innovare l’AI, sia accelerando le LMA con il suo Transformer Engine, sia creando applicazioni di AI generativa.
Per i casi d’uso più impegnativi, come fine tuning e training, il Gruppo offrirà soluzioni basate su NVIDIA H100 SXM. Con 67 Tflops di potenza di calcolo FP64 e una maggiore larghezza di banda della GPU, questa offerta confermerà tutta la potenza dell’architettura GPU NVIDIA Hopper.
Nuove istanze GPU e server bare-metal con NVIDIA L4 e L40S
OVHcloud ha presentato anche istanze GPU con GPU NVIDIA L4 con 24 GB di memoria. La L4, basata sull’architettura GPU NVIDIA Ada Lovelace, è una GPU universale per ogni carico di lavoro con funzionalità AI e video avanzate. Offre risorse di calcolo efficienti per grafica, simulazione, data science e analisi dei dati
Anche la GPU NVIDIA L40S con 48 GB di memoria si aggiunge alle istanze offerte dal Gruppo. NVIDIA L40S beneficia di Tensor Core di quarta generazione e FP8 Transformer Engine fornendo prestazioni solide per i carichi di lavoro AI, sia in fase di training, sia in fase di inferenza.
Queste GPU saranno disponibili attraverso istanze di cloud pubblico e in server bare-metal dedicati con L4 in SCALE-GPU e L40S in HGR-AI.
Una base per potenziare i percorsi di AI dei clienti
Grazie a soluzioni hardware GPU NVIDIA, OVHcloud ora offre un’infrastruttura progettata per AI a ingegneri, ricercatori, data scientist e professionisti dei dati che possono sfruttare la flessibilità del cloud per le loro necessità, dal training all’inferenza in esecuzione.
Inoltre, OVHcloud aggiungerà gradualmente le opzioni NVIDIA H100 e A100 al suo set di soluzioni complete AI PaaS progettate per accompagnare il ciclo di vita dei dati: AI Notebooks, AI Training e AI Deploy. Le soluzioni OVHcloud AI fungono da set completo di strumenti facili da usare e progettati per esplorare i dati, addestrare i modelli e metterli in produzione.
“Le aziende sono alla ricerca di opzioni di servizi cloud flessibili per spingere l’innovazione interna e per aiutare i clienti ad adottare nuove applicazioni di AI generativa”, ha dichiarato Matthew McGrigg, Director of Global Development for Cloud Partners di NVIDIA. “Grazie all’offerta di una gamma completa di accelerazione di calcolo NVIDIA, OVHcloud è in grado di gestire un’ampia varietà di carichi di lavoro di inferenza e training.”
In linea con una solida roadmap focalizzata sulle soluzioni AI, OVHcloud annuncerà nelle prossime settimane una serie di innovazioni AI progettate per aiutare ulteriormente i propri clienti a muoversi in questo nuovo paradigma.
Prezzi e disponibilità
Le istanze GPU basate su NVIDIA A100 sono disponibili sul cloud pubblico a partire da 2,75 euro all’ora per A100-180, 5,50 euro all’ora per A100-360 e 11 euro all’ora per A100-720. Le soluzioni di Managed AI basate su A100 saranno disponibili successivamente a 3 euro all’ora. Le istanze basate su NVIDIA H100 PCIe del cloud pubblico verranno lanciate nel corso dell’autunno, con prenotazione possibile già adesso. I clienti interessati alle prossime offerte NVIDIA H100 SXM possono richiedere un preventivo personalizzato.
Le istanze GPU NVIDIA L4 e L40S saranno disponibili in ottobre. Il lancio di nuovi server bare-metal con NVIDIA L4 e L40S GPU è previsto in autunno.