Axyon AI
Axyon AI, società fintech specializzata in soluzioni predittive di intelligenza artificiale e deep learning per il settore dell’asset management, ha ottenuto due finanziamenti che ne riconoscono il valore della ricerca e il continuo sviluppo della tecnologia, per un totale di 348mila euro.
Axyon AI ha ottenuto il primo finanziamento per applicare il suo modello di previsioni finanziarie basato sull’AI al Quantum computing. Si tratta di un riconoscimento importante perché ricerca e sviluppo si stanno spostando dall’evoluzione del Quantum computing alle applicazioni che possono farne uso.
Questo finanziamento è stato erogato da ELISE, rete di centri di ricerca sull’intelligenza artificiale che lavora in collaborazione con ELLIS (European Laboratory for Learning and Intelligent Systems).
L’organizzazione ha riconosciuto Axyon AI quale una delle migliori PMI europee di intelligenza artificiale per il suo progetto di machine learning (ML) quantitativo e basato sulla fisica.
La collaborazione con ELLIS consentirà ad Axyon AI di sfruttare la potenza della tecnologia del Quantum computing per migliorare ulteriormente una delle fasi cruciali della pipeline di costruzione dei suoi modelli. Grazie all’enorme potenza di calcolo del Quantum Computing, Axyon AI sarà in grado di esplorare l’universo dei modelli disponibili e, nella fase di apprendimento, di identificare quelli con le migliori prestazioni.
L’ambizioso progetto di Axyon AI, in collaborazione con l’Università di Modena e Reggio Emilia (UNIMORE), si concentrerà sull’integrazione e il potenziamento dei modelli di Machine Learning e Deep Learning per ottimizzare le strategie di investimento che Axyon AI già offre ai propri clienti.
Hewlett Packard Enterprise
Hewlett Packard Enterprise ha annunciato una soluzione di supercomputing per l’intelligenza artificiale generativa progettata per grandi imprese, istituti di ricerca e organizzazioni governative per accelerare la formazione e la messa a punto dei modelli di intelligenza artificiale (AI) utilizzando set di dati privati. Questa soluzione comprende una suite software che consente ai clienti di addestrare e mettere a punto modelli e sviluppare applicazioni AI. La soluzione include anche supercomputer raffreddati a liquido, elaborazione accelerata, reti, storage e servizi per aiutare le organizzazioni a sbloccare il valore dell’intelligenza artificiale più rapidamente.
Gli strumenti software per creare applicazioni di intelligenza artificiale, personalizzare modelli predefiniti e sviluppare e modificare codice sono componenti chiave di questa soluzione di supercalcolo per l’intelligenza artificiale generativa. Il software è integrato con la tecnologia di supercalcolo HPE Cray, basata sulla stessa potente architettura utilizzata nel supercomputer più veloce del mondo, e sfrutta i superchip NVIDIA Grace Hopper™ GH200. Così, questa soluzione offre alle organizzazioni la scalabilità e le prestazioni senza precedenti richieste per i grandi carichi di lavoro di intelligenza artificiale, come il training degli LLM (Large Language Model) e dei DLRM (Deep Learning Recommendation Model). Utilizzando HPE Machine Learning Development Environment su questo sistema, il modello open source da 70 miliardi di parametri “Llama2” è stato messo a punto in meno di 3 minuti[1] per un immediato e più veloce time to market per i clienti[2]. Le funzionalità avanzate di supercalcolo di HPE, supportate dalle tecnologie NVIDIA, migliorano le performance del sistema di circa 2-3 volte rispetto al passato
La nuova soluzione di supercalcolo per l’intelligenza artificiale generativa rappresenta un’offerta AI-native, integrata e appositamente creata che include le seguenti tecnologie e servizi in modalità “end-to-end”:
- Software di accelerazione AI/ML – Una suite di tre strumenti software aiuterà i clienti ad addestrare e ottimizzare i modelli di intelligenza artificiale e a creare le proprie applicazioni AI.
- HPE Machine Learning Development Environment è una piattaforma software di machine learning (ML) che consente ai clienti di sviluppare e distribuire modelli di intelligenza artificiale più rapidamente integrandosi con i framework di ML più diffusi e semplificando la preparazione dei dati.
- NVIDIA AI Enterprise apre le porte verso un’intelligenza artificiale all’avanguardia con sicurezza, stabilità, gestibilità e supporto. Offre framework estesi, modelli preaddestrati e strumenti che semplificano lo sviluppo e l’implementazione dell’IA di produzione.
- La suite HPE Cray Programming Environment offre ai programmatori un set completo di strumenti per lo sviluppo, il porting, il debug e il perfezionamento del codice.
- Progettata per la scalabilità – basata su HPE Cray EX2500, un sistema di classe exascale e dotata dei superchip Grace Hopper NVIDIA GH200 leader del settore, la soluzione è scalabile fino a migliaia di unità di elaborazione grafica (GPU) con la possibilità di dedicare l’intera capacità dei nodi a supporto di un singolo carico di lavoro AI per un time-to-value più rapido. Il sistema è il primo a offrire la configurazione quad NVIDIA Grace Hopper GH200 Superchip.
- Un network per l’AI in real time – HPE Slingshot Interconnect offre un open network ad alte prestazioni basato su Ethernet e progettato per supportare workload di classe exascale. Basato sulla tecnologia HPE Cray, questo network personalizzabile potenzia le prestazioni dell’intero sistema consentendo una velocità di networking estremamente elevata.
- Chiavi in mano – La soluzione è completata da HPE Complete Care Services, che mette a disposizione specialisti per la configurazione, l’installazione e l’assistenza per l’intero ciclo di vita, così da semplificare l’adozione dell’AI.
La soluzione di supercalcolo per l’intelligenza artificiale generativa sarà generalmente disponibile a dicembre tramite HPE in più di 30 paesi.
Ulteriori informazioni
- HPE expands portfolio of HPE Cray Supercomputing solutions for AI and HPC
- NVIDIA GH200 Grace Hopper Superchip architecture whitepaper
Note
- Utilizzando 32 nodi HPE Cray EX 2500 con 128 GPU NVIDIA H100 al 97% di efficienza di scaling, un modello Llama 2 da 70 miliardi di parametri è stato messo a punto in test interni su un corpus di 10 milioni di token in meno di 3 minuti. Il codice di regolazione del modello e i parametri di addestramento non sono stati ottimizzati tra un’esecuzione e l’altra. ↑
- I benchmark standard dell’intelligenza artificiale, BERT e Mask R-CNN, sono stati eseguiti con un sistema pronto all’uso, non sintonizzato, che comprende il supercomputer HPE Cray EX2500 e un acceleratore blade HPE Cray EX254n con quattro superchip NVIDIA GH200 Grace Hopper. I test eseguiti in modo indipendente hanno mostrato un miglioramento delle prestazioni di 2-3 volte rispetto ai risultati pubblicati da MLPerf 3.0 per un sistema basato su A100 comprendente due processori AMD EPYC 7763 e quattro GPU NVIDIA A100 con interconnessioni NVLINK