- Meta ha rilasciato LLaMA 2, un modello linguistico di grandi dimensioni open-source, con l’intento di sfidare i modelli proprietari di grandi aziende tecnologiche come Google e OpenAI.
- La decisione di Meta di rendere LLaMA 2 open-source permette ai ricercatori di tutto il mondo di accedere al codice e ai dati, favorendo potenzialmente rapidi progressi e democratizzando lo sviluppo dell’intelligenza artificiale.
- Esistono vari modi per interagire con LLaMA 2, inclusi demo online, download del codice da Hugging Face, utilizzo tramite Microsoft Azure e Amazon SageMaker JumpStart, e varianti come llama.perplexity.ai. Questi metodi permettono sia agli utenti principianti che avanzati di sperimentare e sviluppare applicazioni basate su LLaMA 2.
Meta, società madre di Facebook, ha lanciato da poco LLaMA 2, un modello linguistico di grandi dimensioni (LLM) open-source che intende sfidare le pratiche restrittive dei grandi concorrenti tecnologici.
A differenza dei sistemi di intelligenza artificiale lanciati da Google, OpenAI e altri che sono strettamente custoditi in modelli proprietari, Meta sta rilasciando liberamente il codice e i dati alla base di LLaMA 2 per consentire ai ricercatori di tutto il mondo di sviluppare e migliorare la tecnologia.
La natura open-source di LLaMA 2 potrebbe portare a rapidi progressi nel campo dell’AI, in quanto gli sviluppatori di tutto il mondo possono ora accedere al modello di base, analizzarlo e costruirci sopra. Si tratta di una mossa coraggiosa che potrebbe democratizzare il campo dell’AI, in rapida evoluzione, fornendo agli sviluppatori strumenti potenti per costruire applicazioni e soluzioni innovative.
Indice degli argomenti:
Llama 2 evolve in Llama 3
Il 18 aprile del 2024 Meta ha rilasciato LLaMA 3 con due diverse dimensioni da 8 miliardi e 70 miliardi di parametri. Questi modelli sono stati addestrati mediante 15 trilioni di token di testo raccolti da fonti pubbliche.
LLaMA 2: una sfida a ChatGPT e a Bard
LLaMA 2 è disponibile in tre dimensioni: 7 miliardi, 13 miliardi e 70 miliardi di parametri, a seconda del modello scelto. In confronto, la serie GPT-3.5 di OpenAI ha fino a 175 miliardi di parametri e il Bard di Google (basato su LaMDA) ha 137 miliardi di parametri. OpenAI notoriamente non ha rivelato il numero di parametri di GPT-4 nella sua ricerca pubblicata. Il numero di parametri di un modello è generalmente correlato alle sue prestazioni e alla sua accuratezza, ma modelli più grandi richiedono più risorse computazionali e dati da addestrare.
Anche il metodo di addestramento utilizzato per LLaMA 2 è degno di nota e diverso dalle alternative più diffuse. Lo strumento viene addestrato utilizzando l’apprendimento rinforzato dal feedback umano (RLHF), imparando dalle preferenze e dalle valutazioni dei formatori umani di intelligenza artificiale. Al contrario, ChatGPT ha utilizzato una messa a punto supervisionata, imparando da dati etichettati forniti da annotatori umani.
Come accedere a LLaMA 2 e come utilizzarlo
Data la sua natura open-source, esistono numerosi modi per interagire con LLaMA 2. Ecco alcuni dei modi più semplici per accedere a LLaMA 2 e iniziare a sperimentarlo fin da subito:
1. Interagire con la demo del chatbot
Il modo più semplice per utilizzare LLaMA 2 è visitare llama2.ai, una demo del modello di chatbot ospitata da Andreessen Horowitz. È possibile porre al modello domande su qualsiasi argomento di interesse o richiedere contenuti creativi utilizzando prompt specifici. È possibile cambiare la modalità di chat tra equilibrata, creativa e precisa in base alle proprie preferenze. Questo è il modo migliore per iniziare a testare il nuovo modello.
2. Scaricare il codice LaMA 2
Se si desidera eseguire LLaMA 2 sulla propria macchina o modificare il codice, è possibile scaricarlo direttamente da Hugging Face, una piattaforma leader per la condivisione di modelli AI. È necessario un account Hugging Face e le librerie e le dipendenze necessarie per eseguire il codice. Le istruzioni per l’installazione e la documentazione sono disponibili sul repository di LLaMA repository .
3. Accesso tramite Microsoft Azure
Un’altra opzione per accedere a LLaMA 2 è Microsoft Azure, un servizio di cloud computing che offre diverse soluzioni di AI. LLaMA 2 si trova nel catalogo dei modelli AI di Azure, dove è possibile sfogliare, distribuire e gestire i modelli AI. Per utilizzare questo servizio è necessario disporre di un account Azure e di un abbonamento. Questo metodo è consigliato agli utenti più esperti.
4. Accesso tramite Amazon SageMaker JumpStart
È inoltre possibile sperimentare e distribuire LLaMA 2 tramite Amazon SageMaker JumpStart, un popolare hub per algoritmi, modelli e soluzioni. SageMaker JumpStart semplifica il processo di costruzione, addestramento e distribuzione di modelli di apprendimento automatico (ML) con pochi clic. Per utilizzare questo servizio è necessario un account Amazon Web Services e un abbonamento. Questo è un altro metodo consigliato agli utenti avanzati e ai programmatori.
5. Provate una variante su llama.perplexity.ai
Perplexity.ai è un web crawler che utilizza il metodo ML per generare risposte generali alle vostre domande, offrendo poi una serie di link a siti web. Llama.perplexity.ai combina la potenza di LLaMA 2 e di Perplexity.ai per fornire risposte generali e link pertinenti alle query utilizzando il nuovo modello per alimentare le risposte. Per utilizzarlo, visitate llama.perplexity.ai e digitate una domanda nella casella di ricerca. Verrà visualizzata una breve risposta, seguita da un elenco di link da esplorare ulteriormente.
TinyLlama
L’attesissimo modello open source, è arrivato all’inizio del 2024. Con un peso inferiore a 640 megabyte, TinyLlama è stato addestrato su un trilione di token e supera rivali di dimensioni simili. Il progetto ha preso il via a settembre 2023, quando un gruppo di sviluppatori ha iniziato ad addestrare un modello minuscolo su trilioni di token. Il modello ha una dimensione di 1 miliardo di parametri ed è stato addestrato su circa un trilione di token per circa tre cicli attraverso i dati di addestramento.