AI GENERATIVA

Ecco come Intel porta l’AI Gen alle Olimpiadi di Parigi



Indirizzo copiato

Il produttore di chip ha annunciato una collaborazione con il Comitato Olimpico Internazionale per l’uso di tecnologie AI generative che supportano sia sviluppatori che atleti, migliorando l’accesso e le prestazioni attraverso sistemi aperti

Pubblicato il 18 lug 2024



Intel Olimpiadi parigi

Intel mette a disposizione sistemi AI aperti e fruibili sia per sviluppatori che per atleti a livello globale. L’azienda ha rivelato i particolari della sua sinergia con il Comitato Olimpico Internazionale (CIO), enfatizzando l’adozione di una tecnologia di Retrieval-Augmented Generation (RAG) basata sull’intelligenza artificiale generativa (GenAI). Tale comunicazione evidenzia come le piattaforme e i sistemi AI open, integrando gli acceleratori Intel Gaudi e i processori Intel Xeon, facilitino sviluppatori e aziende nel rispondere alle nuove sfide emerse dall’espansione dell’intelligenza artificiale.

“Con la nostra alleanza con il Comitato Olimpico Internazionale, dimostriamo il nostro impegno verso un’AI accessibile. Ci impegniamo a promuovere un ambiente aperto che favorisca l’innovazione e la creatività, permettendo a sviluppatori e aziende di elaborare soluzioni AI specifiche che producano benefici concreti. Adottando un ecosistema aperto e collaborativo, Intel sostiene gli atleti e spinge i confini del possibile per i nostri utenti”, dichiara Justin Hotard, EVP e GM, Data Center and Artificial Intelligence di Intel.

Il chatbot Athlete 365

Per gli atleti, raggiungere la qualificazione ai Giochi Olimpici rappresenta solo l’inizio. Per assistere circa 11mila partecipanti provenienti da diverse culture e lingue nel navigare all’interno del Villaggio Olimpico di Parigi rispettandone norme e direttive, il CIO ha lavorato in collaborazione con Intel allo sviluppo congiunto del chatbot Athlete365. Questo sistema RAG sfrutta l’acceleratore Intel Gaudi e processori Xeon per gestire domande e interazioni degli atleti, permettendo loro di concentrarsi su allenamenti e competizioni.

L’applicazione delle soluzioni GenAI presenta sfide in termini di costi, scalabilità, precisione, requisiti di sviluppo, privacy e sicurezza. Il RAG rappresenta un carico di lavoro GenAI particolarmente critico poiché consente alle imprese di utilizzare dati proprietari in sicurezza, migliorando tempestività e affidabilità dei risultati AI.

Questo incrementa la qualità e l’utilità delle applicazioni AI, essenziali in un mondo odierno guidato dai dati. L’approccio cooperativo adottato da Intel attraverso piattaforme AI standard aperti e un robusto software ed ecosistema consente agli sviluppatori di progettare soluzioni RAG GenAI su misura per ogni esigenza aziendale.

intel olimpiadi parigi

Funzionamento dell’architettura RAG GenAI

In collaborazione con vari partner industriali, Intel ha realizzato una soluzione RAG GenAI open source facilmente implementabile tramite Open Platform for Enterprise AI (OPEA). Sebbene questa offerta chiavi in mano semplifichi le implementazioni RAG aziendali nei data center, è concepita per essere estremamente flessibile personalizzabile integrando componenti da un vasto catalogo OEM e partner settoriali. Questa soluzione chiavi in mano integra microservizi basati su OPEA in una configurazione RAG scalabile pensata per impiegare sistemi AI basati sui processori Intel Xeon and Gaudi.

È ottimizzata per ambienti orchestrazione come Kubernetes and Red Hat OpenShift offrendo API standardizzate con funzionalità avanzate di sicurezza telemetria sistema.

intel olimpiadi parigi

Rompere le barriere del software proprietario mediante uno stack aperto

Lo sviluppo dei Large Language Model (LLM) si avvale prevalentemente del framework PyTorch ad alta astrazione supportato da acceleratori Gaudi Xeon semplificando lo sviluppo su piattaforme sistemi AI Intel. La collaborazione tra Intel OPEA ha portato alla creazione uno stack software aperto ottimizzato per implementazioni RAG LLM attraverso PyTorch librerie servizio Hugging Face (TGI TEI) LangChain database Redis Vector.

Questa soluzione chiavi in mano integra componenti di microservizi basati su OPEA in una soluzione RAG scalabile progettata per distribuire sistemi AI basati su Intel Xeon e Intel Gaudi. Si adatta perfettamente a framework di orchestrazione quali Kubernetes e Red Hat OpenShift e fornisce API standardizzate con sicurezza e telemetria di sistema.

Abbattere le barriere del software proprietario con uno stack aperto

Quasi tutto lo sviluppo dei Large Language Model (LLM) si basa sul framework ad alta astrazione PyTorch, supportato da Intel Gaudi e Intel Xeon, semplificando lo sviluppo su sistemi o piattaforme Intel AI. Intel ha collaborato con OPEA per sviluppare uno stack software aperto per l’implementazione RAG e LLM ottimizzato per la soluzione di GenAI chiavi in mano e realizzato con PyTorch, librerie di servizio Hugging Face (TGI e TEI), LangChain e il database Redis Vector.

OPEA offre pipeline RAG open source, standardizzate, modulari ed eterogenee per le imprese, concentrandosi sullo sviluppo di modelli aperti e sul supporto di diversi compilatori e toolchain. In questo modo è possibile accelerare l’integrazione e la distribuzione dell’AI containerizzata per casi d’uso specifici. OPEA sblocca nuove possibilità per l’intelligenza artificiale creando un quadro dettagliato e componibile all’avanguardia nel panorama tecnologico.

Con la GenAI chiavi in mano e lo stack completo di enterprise AI, Intel offre una soluzione risponde alle esigenze di implementazione e scalabilità delle applicazioni RAG e LLM nelle aziende e nei data center. Sfruttando i sistemi o le piattaforme di intelligenza artificiale basati su Intel e il software ottimizzato in OPEA, le aziende possono sbloccare tutto il potenziale della GenAI con maggiore efficienza e velocità.

Prossimi passaggi

Aumentare l’accesso alla più recente tecnologia di elaborazione AI è una sfida che le aziende devono affrontare per utilizzare al meglio la GenAI. Attraverso collaborazioni strategiche con partner e clienti del settore, Intel sta creando nuove opportunità per i servizi di intelligenza artificiale basati sulle soluzioni di GenAI e RAG.

Impegnata nello sviluppo sicuro e responsabile dell’intelligenza artificiale, Intel ha annunciato oggi la sua collaborazione con Google, IBM e altri partner del settore in una nuova Coalition for Secure AI (CoSAI), creata per migliorare la fiducia e la sicurezza nello sviluppo e nell’implementazione dell’intelligenza artificiale.

Intel dimostrerà ulteriormente il suo esclusivo approccio ai sistemi di intelligenza artificiale e il continuo slancio di clienti e partner all’Intel Innovation del 24 e 25 settembre.

Maggiore contesto: “Intel Welcomes the Coalition for Secure AI”

Intel Brings AI-Platform Innovation to Life at the Olympic Games

Articoli correlati

Articolo 1 di 3