- Mixtral 8x7B, il nuovo modello linguistico di Mistral AI, è rilasciato con open-weights ed è multilingue, supportando diverse lingue tra cui l’italiano e l’inglese. Ha una lunghezza di contesto di 32.000 token e supera il modello Llama 2 da 70 miliardi di parametri e GPT-3.5 di OpenAI sulla maggior parte delle metriche. È in grado di generare codice e rispondere alle interrogazioni in modo molto coerente.
- Mixtral 8x7B utilizza un’architettura Mixture of Experts (MoE), che consente l’uso selettivo di un piccolo sottoinsieme di esperti per ogni decisione, migliorando così l’efficienza computazionale. Questo approccio riduce i costi e la latenza, permettendo di gestire modelli di grandi dimensioni con risorse computazionali ridotte.
- Mixtral 8x7B è distribuito con la licenza Apache 2.0, che permette un uso commerciale gratuito e la modifica del codice sorgente. Questo modello open-source rappresenta un’alternativa ai modelli “black box” come ChatGPT, offrendo maggiore trasparenza e controllo. La strategia di Mistral AI combina l’approccio open-source con l’accesso alle API a pagamento.
AI GENERATIVA
Mistral AI presenta Mixtral 8X7B, modello linguistico che punta al primato nell’open source
La startup francese specializzata in AI dichiara che il suo nuovo modello, con open-weights, supera Llama 2 e GPT-3.5 nella maggior parte dei benchmark
giornalista
Continua a leggere questo articolo
Argomenti
Canali