case study

Architettura Mixture of Experts (MoE) e multimodalità



Indirizzo copiato

Il direttore del progetto MAIA, al cuore del quale c’è un hub cognitivo che coordina diversi modelli di AI, parla di come questo approccio può aumentare l’efficienza e la flessibilità. E illustra la novità di un large language model addestrato con fonti in italiano, per adattarsi meglio al mercato interno

Pubblicato il 25 gen 2024

Stefano Mancuso

COO di Synapsia



LLM

Continua a leggere questo articolo

Articoli correlati