Tecnologia

LLaMA 2: cos’è e come utilizzare il modello open source di Meta

Disponibile in tre dimensioni – 7 miliardi, 13 miliardi e 70 miliardi di parametri, a seconda del modello – viene addestrato utilizzando l’apprendimento rinforzato dal feedback umano (RLHF), imparando dalle preferenze e dalle valutazioni dei formatori umani di intelligenza artificiale. Ecco come accedere e utilizzarlo

Pubblicato il 20 Lug 2023

LLaMA

Meta, società madre di Facebook, ha lanciato da poco LLaMA 2, un modello linguistico di grandi dimensioni (LLM) open-source che intende sfidare le pratiche restrittive dei grandi concorrenti tecnologici.

A differenza dei sistemi di intelligenza artificiale lanciati da Google, OpenAI e altri che sono strettamente custoditi in modelli proprietari, Meta sta rilasciando liberamente il codice e i dati alla base di LLaMA 2 per consentire ai ricercatori di tutto il mondo di sviluppare e migliorare la tecnologia.

La natura open-source di LLaMA 2 potrebbe portare a rapidi progressi nel campo dell’AI, in quanto gli sviluppatori di tutto il mondo possono ora accedere al modello di base, analizzarlo e costruirci sopra. Si tratta di una mossa coraggiosa che potrebbe democratizzare il campo dell’AI, in rapida evoluzione, fornendo agli sviluppatori strumenti potenti per costruire applicazioni e soluzioni innovative.

LLaMA 2: una sfida a ChatGPT e a Bard

LLaMA 2 è disponibile in tre dimensioni: 7 miliardi, 13 miliardi e 70 miliardi di parametri, a seconda del modello scelto. In confronto, la serie GPT-3.5 di OpenAI ha fino a 175 miliardi di parametri e il Bard di Google (basato su LaMDA) ha 137 miliardi di parametri. OpenAI notoriamente non ha rivelato il numero di parametri di GPT-4 nella sua ricerca pubblicata. Il numero di parametri di un modello è generalmente correlato alle sue prestazioni e alla sua accuratezza, ma modelli più grandi richiedono più risorse computazionali e dati da addestrare.

Anche il metodo di addestramento utilizzato per LLaMA 2 è degno di nota e diverso dalle alternative più diffuse. Lo strumento viene addestrato utilizzando l’apprendimento rinforzato dal feedback umano (RLHF), imparando dalle preferenze e dalle valutazioni dei formatori umani di intelligenza artificiale. Al contrario, ChatGPT ha utilizzato una messa a punto supervisionata, imparando da dati etichettati forniti da annotatori umani.

Come accedere a LLaMA 2 e come utilizzarlo

Data la sua natura open-source, esistono numerosi modi per interagire con LLaMA 2. Ecco alcuni dei modi più semplici per accedere a LLaMA 2 e iniziare a sperimentarlo fin da subito:

1. Interagire con la demo del chatbot

Il modo più semplice per utilizzare LLaMA 2 è visitare llama2.ai, una demo del modello di chatbot ospitata da Andreessen Horowitz. È possibile porre al modello domande su qualsiasi argomento di interesse o richiedere contenuti creativi utilizzando prompt specifici. È possibile cambiare la modalità di chat tra equilibrata, creativa e precisa in base alle proprie preferenze. Questo è il modo migliore per iniziare a testare il nuovo modello.

2. Scaricare il codice LaMA 2

Se si desidera eseguire LLaMA 2 sulla propria macchina o modificare il codice, è possibile scaricarlo direttamente da Hugging Face, una piattaforma leader per la condivisione di modelli AI. È necessario un account Hugging Face e le librerie e le dipendenze necessarie per eseguire il codice. Le istruzioni per l’installazione e la documentazione sono disponibili sul repository di LLaMA repository .

3. Accesso tramite Microsoft Azure

Un’altra opzione per accedere a LLaMA 2 è Microsoft Azure, un servizio di cloud computing che offre diverse soluzioni di AI. LLaMA 2 si trova nel catalogo dei modelli AI di Azure, dove è possibile sfogliare, distribuire e gestire i modelli AI. Per utilizzare questo servizio è necessario disporre di un account Azure e di un abbonamento. Questo metodo è consigliato agli utenti più esperti.

4. Accesso tramite Amazon SageMaker JumpStart

È inoltre possibile sperimentare e distribuire LLaMA 2 tramite Amazon SageMaker JumpStart, un popolare hub per algoritmi, modelli e soluzioni. SageMaker JumpStart semplifica il processo di costruzione, addestramento e distribuzione di modelli di apprendimento automatico (ML) con pochi clic. Per utilizzare questo servizio è necessario un account Amazon Web Services e un abbonamento. Questo è un altro metodo consigliato agli utenti avanzati e ai programmatori.

5. Provate una variante su llama.perplexity.ai

Perplexity.ai è un web crawler che utilizza il metodo ML per generare risposte generali alle vostre domande, offrendo poi una serie di link a siti web. Llama.perplexity.ai combina la potenza di LLaMA 2 e di Perplexity.ai per fornire risposte generali e link pertinenti alle query utilizzando il nuovo modello per alimentare le risposte. Per utilizzarlo, visitate llama.perplexity.ai e digitate una domanda nella casella di ricerca. Verrà visualizzata una breve risposta, seguita da un elenco di link da esplorare ulteriormente.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4