News

Meta prepara una versione commerciale del suo modello di intelligenza artificiale

Dopo aver rilasciato il proprio modello linguistico LLaMA a ricercatori e accademici ,all’inizio del 2023, ora è in arrivo una versione che sarà più ampiamente disponibile e personalizzabile dalle aziende e il cui rilascio è previsto a breve

Pubblicato il 14 Lug 2023

Meta AI

Meta è pronta a rilasciare una versione commerciale del suo modello di intelligenza artificiale, consentendo alle start-up e alle aziende di costruire software personalizzato sulla base della tecnologia. La notizia è stata riportata dal Financial Times.

La mossa consentirà a Meta di competere con OpenAI e Google, che sono in vantaggio nella corsa allo sviluppo dell’AI generativa.

Meta ha rilasciato il proprio modello linguistico LLaMA a ricercatori e accademici all’inizio di quest’anno, ma la nuova versione sarà più ampiamente disponibile e personalizzabile dalle aziende. Il rilascio è previsto a breve.

Meta afferma che i suoi LLM sono “open-source”, il che significa che i dettagli del nuovo modello saranno resi pubblici. Ciò contrasta con l’approccio di concorrenti come OpenAI, il cui ultimo modello GPT-4 è una cosiddetta scatola nera in cui i dati e il codice utilizzati per costruire il modello non sono disponibili a terzi.

“Il panorama competitivo dell’AI cambierà completamente nei prossimi mesi, forse nelle prossime settimane, quando ci saranno piattaforme open source che saranno effettivamente altrettanto valide di quelle che non lo sono”, ha dichiarato sabato scorso il vicepresidente e chief AI scientist di Meta, Yann LeCun, in occasione di una conferenza ad Aix-en-Provence.

L’imminente rilascio di Meta avviene mentre si accende la gara tra i gruppi tecnologici della Silicon Valley per affermarsi come partecipanti dominanti all’AI.

Il dilemma open source

In un articolo pubblicato sul Financial Times, il responsabile degli affari globali di Meta, Nick Clegg, ha esaltato le virtù di un approccio open source, affermando che “l’apertura è il miglior antidoto alle paure che circondano l’AI”. Ma la mossa aiuta Meta anche nei suoi tentativi di recuperare il ritardo rispetto ai rivali, in quanto un modello aperto consentirebbe alle aziende di tutte le dimensioni di migliorare la tecnologia e costruire applicazioni su di essa.

Meta lavora alla ricerca e allo sviluppo dell’intelligenza artificiale da oltre un decennio, ma è sembrata in difficoltà dopo che ChatGPT, un chatbot conversazionale di OpenAI, è stato rilasciato a novembre, stimolando altri gruppi di Big Tech a lanciare prodotti simili.

“L’obiettivo è quello di ridurre l’attuale dominio di OpenAI”, ha dichiarato una persona a conoscenza della strategia di alto livello di Meta. Meta ha rifiutato di commentare.

Joelle Pineau, vicepresidente della ricerca sull’intelligenza artificiale di Meta, ha rifiutato di commentare lo sviluppo di un nuovo modello di intelligenza artificiale e il modo in cui potrebbe essere monetizzato, ma ha detto: “Alla fine della giornata, perché si rilascia qualcosa [open source], non si rinuncia completamente alla proprietà intellettuale di quel lavoro”.

“Non siamo stati timidi nel dire che vogliamo usare questi modelli [nei nostri] prodotti”, ha aggiunto.

All’inizio di quest’anno, il gigante dei social network ha creato un’unità di AI generativa guidata dal chief product officer Chris Cox.

Pineau ha dichiarato che il team di Cox si occupa della ricerca sull’AI, ma anche dello sviluppo di prodotti, in quanto sta “creando attività totalmente nuove”.

Zuckerberg e altri dirigenti hanno accennato a una spinta verso la creazione di chatbot AI multipli per individui, inserzionisti e aziende attraverso le piattaforme Meta, Instagram, WhatsApp e Facebook, alimentati dai suoi LLM.

I vantaggi dei modelli open source includono una maggiore adozione da parte degli utenti che inseriscono più dati da elaborare da parte dell’AI. Più dati ha un LLM, più potenti possono diventare le sue capacità.

Inoltre, i modelli open source consentono a ricercatori e sviluppatori di individuare e risolvere i bug, migliorando contemporaneamente la tecnologia e la sicurezza, in un momento in cui aziende tecnologiche come Meta hanno dovuto affrontare anni di controlli per vari scandali legati alla privacy e alla disinformazione.

Sebbene fornire software gratuitamente possa sembrare antitetico al fare soldi, gli esperti ritengono che le aziende possano utilizzare questa strategia per conquistare nuovi mercati.

“Meta si è resa conto di essere in ritardo rispetto all’attuale ciclo di sviluppo dell’intelligenza artificiale e questo le offre un modo per aprire l’ecosistema e dare l’impressione di fare la cosa giusta, di essere caritatevole e di restituire alla comunità”, ha dichiarato una persona che ha familiarità con le idee dell’azienda.

Tuttavia, l’AI open source presenta dei rischi evidenti, che possono essere modellati e abusati da malintenzionati. I gruppi per la sicurezza dei minori segnalano, ad esempio, un aumento delle immagini di abusi sessuali su minori generate dall’AI online.

Rischi normativi e legali legati al copyright

Esistono anche rischi normativi e legali relativi alla proprietà intellettuale e al copyright. Lunedì scorso, l’attrice Sarah Silverman ha intentato una causa contro Meta e OpenAI, sostenendo che il suo lavoro è stato utilizzato per addestrare modelli senza il suo consenso.

Meta ha rilasciato il suo modello open source LLaMA ai ricercatori a febbraio. Un mese dopo, il modello è trapelato più ampiamente attraverso il forum online 4chan, spingendo gli sviluppatori a costruirci sopra in violazione delle regole di licenza di Meta, che specificano che non deve essere usato in prodotti commerciali. “Questo modello è presente in modi che vorremmo non ci fossero”, ha detto Pineau.

Anche altre aziende di AI, come la start-up francese Mistral, stanno esaminando la possibilità di rilasciare versioni open source della loro tecnologia. OpenAI, che ha già rilasciato modelli di AI open source per il riconoscimento del parlato e delle immagini, ha dichiarato che il suo team sta valutando la possibilità di sviluppare un LLM open source, a condizione che sia in grado di ridurre i rischi di abuso al di sotto di una soglia minima.

“La scelta è tra decidere che l’intelligenza artificiale è una tecnologia troppo pericolosa per rimanere aperta e metterla sotto chiave e nelle mani di un piccolo numero di aziende che la controlleranno”, ha detto LeCun, responsabile AI di Meta. “Oppure, al contrario, piattaforme open source che richiedono contributi… da tutto il mondo”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3