tecnologia

Ecco Minerva 7B, la nuova frontiera dei modelli linguistici italiani



Indirizzo copiato

Presentato dalla Sapienza Università di Roma, questo progetto sviluppato nell’ambito del progetto FAIR (Future Artificial Intelligence Research), sostenuto dai fondi PNRR e in collaborazione con Cineca, rappresenta un significativo avanzamento nei modelli di intelligenza artificiale linguistica in Italia, grazie a un massiccio dataset e a tecniche avanzate di addestramento, garantendo risposte più accurate e sicure

Pubblicato il 2 dic 2024



Minerva 7B

Minerva 7B è il nome attribuito alla nuova versione del modello linguistico sviluppato nell’ambito del progetto FAIR (Future Artificial Intelligence Research), sostenuto dai fondi PNRR e in collaborazione con Cineca (che ha fornito il supercomputer Leonardo), presentato il 26 novembre 2024 presso la Sapienza Università di Roma.

Questo modello di intelligenza artificiale, completamente italiano, è stato realizzato dal gruppo di ricerca Sapienza NLP guidato dal prof. Roberto Navigli. Con 7 miliardi di parametri, Minerva 7B rappresenta un notevole passo avanti rispetto alla versione precedente, migliorando l’elaborazione e la comprensione del linguaggio naturale in italiano. I Minerva sono LLM addestrati “da zero” per la lingua italiana.

Minerva 7B
La presentazione di Minerva 7B (foto: FAIR)

Minerva 7B, un modello potente e sicuro

Minerva 7B è stato addestrato con un dataset di 1,5 trilioni di parole e attraverso un avanzato processo di instruction tuning, che consente al modello di generare risposte più accurate, pertinenti e sicure, riducendo fenomeni come le “allucinazioni” e garantendo contenuti appropriati. Questo approccio mira a migliorare la capacità del modello di seguire le istruzioni e di interagire con l’utente in italiano, rendendolo un potente strumento per applicazioni industriali e istituzionali.

Minerva 7B
Roberto Navigli (foto: Uni Roma)

“Il nostro impegno è continuare a lavorare per massimizzare la sicurezza e gli aspetti conversazionali in una sorta di laboratorio permanente, con la consapevolezza scientifica che il rilascio di oggi non è un traguardo ma un punto di partenza – sottolinea Roberto Navigli – la scarsità di dati di qualità in italiano, sia per il preaddestramento linguistico sia per le conversazioni e le istruzioni, è uno dei temi chiave che intendiamo affrontare nei prossimi mesi. In quest’ottica auspichiamo che il progetto possa crescere aprendosi a nuove collaborazioni, coinvolgendo ad esempio il mondo editoriale ed enti pubblici per l’impiego di Minerva in ambiti istituzionali. Minerva è il primo – e a oggi unico – modello completamente aperto, che si presta a essere utilizzato dalle Pubbliche amministrazioni, proprio per la trasparenza delle fonti e del processo di addestramento. Inoltre sono molto orgoglioso del trasferimento tecnologico che si realizza grazie a Babelscape – spin-off di successo di Sapienza – che sta lavorando alacremente a versioni industriali più potenti e sofisticate dell’LLM e alle sue applicazioni.”

Collaborazione e visione per il futuro

Il progetto ha coinvolto 15 ricercatori e dottorandi della Sapienza, con il supporto di partner chiave come Cineca e Nvidia (in ordine alfabetico): Edoardo Barba, Tommaso Bonomo, Simone Conia, Pere-Lluís Huguet Cabot, Federico Martelli, Luca Moroni, Roberto Navigli, Riccardo Orlando, Alessandro Scirè, Simone Tedeschi; hanno anche contribuito Stefan Bejgu, Fabrizio Brignone, Francesco Cecconi, Ciro Porcaro, Simone Stirpe. Si ringraziano anche Giuseppe Fiameni (Nvidia) e Sergio Orlandini (Cineca).

Minerva 7B
Il gruppo di lavoro di Minerva 7B al completo (foto Uni Roma)

Alla presentazione ufficiale, la rettrice Antonella Polimeni ha sottolineato l’impegno della Sapienza nel coniugare rigore accademico e innovazione. Roberto Navigli ha evidenziato che Minerva è solo un punto di partenza per sviluppare soluzioni trasparenti e sicure, auspicando nuove collaborazioni con editori ed enti pubblici. Alessandra Poggiani ha affermato che con Cineca, il progetto supporta una cittadinanza digitale più inclusiva.

“Diverse aziende hanno annunciato il rilascio di modelli in italiano – Almawave e Fastweb per esempio – noi abbiamo voluto mostrare che il mondo della ricerca accademica è vivo in ambiti d’avanguardia e può marciare rapidamente – spiega Roberto Navigli – arriveranno anche il collegamento con il web che rafforzerà le ricerche più recenti nonché la multimodalità, per esempio la capacità di ricevere immagini come prompt e produrne come output oppure incrociare. Ci lavoreremo dall’anno prossimo, con i colleghi di altre università del progetto di partnenariato esteso in AI Fair”.

Un futuro aperto e inclusivo

Minerva è accessibile al pubblico sul sito minerva-llm.org e sarà scaricabile nelle prossime settimane. Questo approccio open-source lo rende ideale per utilizzi da parte di Pubbliche Amministrazioni e altri settori istituzionali. Con il lancio di Minerva 7B, l’Italia non solo alza lo standard dei modelli linguistici nazionali, ma getta anche le basi per uno sviluppo tecnologico inclusivo e trasparente, consolidando il ruolo della ricerca italiana nell’intelligenza artificiale globale.

Articoli correlati

Articolo 1 di 4