In meno di una settimana dal lancio di LlaMA2, startup e ricercatori lo hanno già utilizzato per sviluppare un chatbot e un assistente AI. È solo questione di tempo prima che altre aziende inizino a lanciare prodotti costruiti con questo modello. Ciò che colpisce è la misura in cui Meta sta aprendo le porte permettendo alla comunità dell’AI di scaricare il modello e di modificarlo. Ciò potrebbe contribuire a renderlo più sicuro ed efficiente. E soprattutto, potrebbe dimostrare i vantaggi della trasparenza rispetto alla segretezza quando si tratta del funzionamento interno dei modelli di AI. Una AI aperta.
Le aziende hi-tech si stanno affrettando a rilasciare i loro modelli di AI in libertà, vediamo l’AI generativa incorporata in un numero sempre maggiore di prodotti. Ma i modelli più potenti, come GPT-4 di OpenAI, sono strettamente protetti dai loro creatori. Sviluppatori e ricercatori pagano per avere un accesso limitato a questi modelli attraverso un sito web e non conoscono i dettagli del loro funzionamento interno.
I problemi derivanti dalla mancanza di trasparenza
Questa opacità potrebbe portare a problemi in futuro, come evidenziato in un nuovo documento non sottoposto a revisione paritaria che ha suscitato un certo scalpore la scorsa settimana. I ricercatori dell’Università di Stanford e dell’UC Berkeley hanno scoperto che GPT-3.5 e GPT-4 hanno ottenuto risultati peggiori nel risolvere problemi matematici, nel rispondere a domande delicate, nel generare codice e nel fare ragionamenti visivi rispetto a un paio di mesi prima.
La mancanza di trasparenza di questi modelli rende difficile stabilire con esattezza il motivo di questa situazione, ma a prescindere da ciò, i risultati dovrebbero essere presi con un pizzico di sale, come scrive il professore di informatica di Princeton Arvind Narayanan nella sua valutazione. È più probabile che siano causati da “stranezze della valutazione degli autori” piuttosto che da prove che OpenAI abbia peggiorato i modelli. A suo avviso, i ricercatori non hanno tenuto conto del fatto che OpenAI ha messo a punto i modelli per ottenere prestazioni migliori e questo ha involontariamente fatto sì che alcune tecniche di suggerimento smettessero di funzionare come in passato.
Questo ha delle serie implicazioni. Le aziende che hanno costruito e ottimizzato i loro prodotti per funzionare con una certa iterazione dei modelli di OpenAI potrebbero “al 100%” vederli improvvisamente bloccarsi e guastarsi, afferma Sasha Luccioni, ricercatore AI presso la startup Hugging Face. Quando OpenAI mette a punto i suoi modelli in questo modo, i prodotti che sono stati costruiti utilizzando suggerimenti molto specifici, ad esempio, potrebbero smettere di funzionare come prima. I modelli chiusi mancano di responsabilità, aggiunge. “Se hai un prodotto e cambi qualcosa nel prodotto, dovresti dirlo ai tuoi clienti”.
I vantaggi del modello aperto LLaMA2
Un modello aperto come LLaMA 2 rende almeno chiaro come l’azienda ha progettato il modello e quali tecniche di addestramento ha utilizzato. A differenza di OpenAI, Meta ha condiviso l’intero schema di LLaMA 2, compresi i dettagli su come è stato addestrato, quale hardware è stato utilizzato, come sono stati annotati i dati e quali tecniche sono state usate per mitigare i danni. Chi fa ricerca e costruisce prodotti sulla base del modello sa esattamente su cosa sta lavorando, precisa Luccioni.
“Una volta che si ha accesso al modello, si possono fare tutti i tipi di esperimenti per assicurarsi di ottenere prestazioni migliori o meno distorsioni, o qualsiasi cosa si stia cercando”, spiega l’esperta.
AI aperta o chiusa?
In definitiva, il dibattito sull’AI aperta o chiusa si riduce a chi decide. Con i modelli aperti, gli utenti hanno più potere e controllo. Con i modelli chiusi, invece, si è alla mercé del loro creatore.
Il fatto che una grande azienda come Meta rilasci un modello di AI così aperto e trasparente rappresenta un potenziale punto di svolta nella competizione dell’AI generativa.
Se i prodotti costruiti su modelli proprietari molto pubblicizzati si guastano improvvisamente in modo imbarazzante e gli sviluppatori sono tenuti all’oscuro dei motivi, un modello di intelligenza artificiale aperto e trasparente con prestazioni simili sembrerà improvvisamente una scelta molto più attraente e affidabile.
Meta non lo fa per beneficenza. Ha molto da guadagnare nel lasciare che altri sondino i suoi modelli alla ricerca di difetti. Ahmad Al-Dahle, vicepresidente di Meta e responsabile del lavoro sull’intelligenza artificiale generativa, sostiene che l’azienda prenderà ciò che impara dalla comunità esterna e lo userà per continuare a migliorare i suoi modelli.
Tuttavia, secondo Luccioni, si tratta di un passo nella giusta direzione. Spera che la mossa di Meta faccia pressione su altre aziende tecnologiche con modelli di intelligenza artificiale affinché prendano in considerazione un percorso più aperto.