- L’hub cognitivo funge da infrastruttura avanzata che coordina vari modelli di intelligenza artificiale, ottimizzando la distribuzione del carico di lavoro e migliorando l’efficienza e la flessibilità attraverso algoritmi avanzati.
- L’adozione dell’architettura Mixture of Experts (MoE) introduce un approccio modulare con esperti specializzati per diversi tipi di dati, migliorando la precisione e l’efficienza. Questo approccio facilita anche la multimodalità, permettendo l’integrazione di input diversi come testo, audio, immagini e video.
- Lo sviluppo del modello LLM Magiq si concentra sulla specificità linguistica per interazioni più accurate in lingue come l’italiano e il francese. Inoltre, l’uso della tecnica Direct Processing Optimization (DPO) migliora l’efficienza dell’addestramento dei modelli, riducendo le “allucinazioni” e ottimizzando le risorse computazionali.
case study
Architettura Mixture of Experts (MoE) e multimodalità
Il direttore del progetto MAIA, al cuore del quale c’è un hub cognitivo che coordina diversi modelli di AI, parla di come questo approccio può aumentare l’efficienza e la flessibilità. E illustra la novità di un large language model addestrato con fonti in italiano, per adattarsi meglio al mercato interno
COO di Synapsia
Continua a leggere questo articolo
Argomenti
Canali