analisi

LeCun: “I grandi modelli linguistici non raggiungeranno mai l’intelligenza umana”



Indirizzo copiato

Il capo dell’AI di Meta spiega che l’azienda guidata da Zuckerberg sta puntando su un approccio radicale per creare una ‘superintelligenza’ nelle macchine, un percorso che potrebbe richiedere un decennio

Pubblicato il 23 mag 2024



LeCun

Igrandi modelli linguistici non raggiungeranno mai l’intelligenza umana. Lo sostiene Yann LeCun, a capo dell’intelligenza artificiale di Meta. I modelli che alimentano prodotti generativi di intelligenza artificiale, come ChatGPT, non raggiungeranno mai la capacità di ragionare e pianificare come gli esseri umani. Al contrario, Meta sta puntando su un approccio alternativo radicale per creare una “superintelligenza” nelle macchine.

“I LLM non comprendono il mondo fisico, non possono ragionare e pianificare”

LeCun, capo scienziato dell’AI del colosso dei social media proprietario di Facebook e Instagram, ha affermato che i LLM hanno “una comprensione della logica molto limitata… non comprendono il mondo fisico, non hanno memoria persistente, non possono ragionare in alcuna definizione ragionevole del termine e non possono pianificare… gerarchicamente”.

In un’intervista al Financial Times, LeCun ha argomentato contro l’idea di fare affidamento sui LLM in avanzamento nella ricerca per realizzare un’intelligenza a livello umano. Questi modelli possono rispondere correttamente solo se sono stati alimentati con i giusti dati di addestramento e sono quindi “intrinsecamente insicuri”. Invece, sta lavorando per sviluppare una nuova generazione completamente nuova di sistemi AI che spera possano dotare le macchine di un’intelligenza a livello umano.

Tuttavia, LeCun pensa che questa visione potrebbe richiedere 10 anni per essere realizzata. Meta ha investito miliardi di dollari nello sviluppo dei propri LLM, poiché l’AI generativa è esplosa, con l’obiettivo di raggiungere gruppi tecnologici rivali, tra cui OpenAI supportata da Microsoft e Google di Alphabet.

LeCun a capo di un team AI di 500 persone

LeCun dirige un team di circa 500 persone nel laboratorio di ricerca fondamentale sull’AI (Fair) di Meta. Lavorano per creare un’AI che possa sviluppare il buon senso e apprendere come funziona il mondo in modi simili agli esseri umani, in un approccio noto come “modellazione del mondo”. La visione sperimentale del capo dell’AI di Meta è una scommessa potenzialmente rischiosa e costosa per il gruppo dei social media in un momento in cui gli investitori sono impazienti di vedere rapidi ritorni sugli investimenti in AI.

Ad aprile, Meta ha perso quasi 200 miliardi di dollari in valore quando l’amministratore delegato Mark Zuckerberg si è impegnato ad aumentare la spesa e trasformare il gruppo dei social media nella “principale azienda AI al mondo”, spaventando gli investitori di Wall Street preoccupati per l’aumento dei costi con poco potenziale immediato di ricavi.

“Siamo al punto in cui pensiamo di essere forse alla prossima generazione di sistemi AI”, ha detto LeCun.

I suoi commenti arrivano mentre Meta e i suoi rivali avanzano con LLM più avanzati. Figure come Sam Altman, capo di OpenAI, credono che rappresentino un passo fondamentale verso la creazione di un’intelligenza artificiale generale (AGI) – il punto in cui le macchine hanno capacità cognitive uguali o superiori a quelle umane.

OpenAI ha rilasciato il suo nuovo modello GPT-4o, e Google ha svelato un nuovo agente AI “multimodale” che può rispondere a query in tempo reale attraverso video, audio e testo chiamato Project Astra, alimentato da una versione aggiornata del suo modello Gemini.

Anche Meta ha lanciato il suo nuovo modello Llama 3 ad aprile. Il capo degli affari globali dell’azienda, Nick Clegg, ha detto che l’ultimo LLM aveva “capacità notevolmente migliorate come il ragionamento” – la capacità di applicare la logica alle query. Ad esempio, il sistema avrebbe dedotto che una persona che soffre di mal di testa, mal di gola e naso che cola aveva un raffreddore, ma avrebbe anche potuto riconoscere che le allergie potrebbero essere la causa dei sintomi. Tuttavia, LeCun pensa che questa evoluzione dei LLM sia superficiale e limitata: i modelli apprendono solo quando gli ingegneri umani intervengono per addestrarli su tali informazioni, piuttosto che l’AI arrivare a una conclusione organicamente come le persone.

“Certo sembra alla maggior parte delle persone come ragionamento – ma per lo più sta sfruttando le conoscenze accumulate da molti dati di addestramento”, ha detto LeCun, ma ha aggiunto: “[I LLM] sono molto utili nonostante le loro limitazioni”.

AGI Google
Demis Hassabis

Anche Google DeepMind ha trascorso diversi anni alla ricerca di metodi alternativi per costruire l’AGI, tra cui metodi come l’apprendimento per rinforzo, in cui gli agenti AI apprendono dal loro ambiente in un ambiente virtuale simile a un gioco.

In un evento tenutosi a Londra il 21 maggio, il capo di DeepMind, Demis Hassabis, ha detto che ciò che mancava ai modelli linguistici era “non capivano il contesto spaziale in cui ti trovi… quindi alla fine limitava la loro utilità”.

LeCun resta il favorito di Zuckerberg

Meta ha creato il suo laboratorio Fair nel 2013 per guidare la ricerca sull’AI, assumendo accademici leader nel settore. Tuttavia, all’inizio del 2023 Meta ha creato un nuovo team GenAI, guidato dal capo del prodotto Chris Cox. Ha assunto molti ricercatori e ingegneri dell’AI da Fair e ha guidato il lavoro su Llama 3 e lo ha integrato nei prodotti, come i nuovi assistenti AI e strumenti di generazione di immagini. La creazione del team GenAI è avvenuta mentre alcuni insider sostenevano che una cultura accademica all’interno del laboratorio Fair fosse in parte responsabile del ritardo di Meta nell’esplosione dell’AI generativa. Zuckerberg ha spinto per più applicazioni commerciali dell’AI sotto la pressione dagli investitori. Tuttavia, LeCun è rimasto uno dei principali consiglieri di Zuckerberg, secondo persone vicine all’azienda, a causa della sua reputazione come uno dei padri fondatori dell’AI, avendo vinto un premio Turing per il suo lavoro sulle reti neurali.

“Abbiamo riorientato Fair verso l’obiettivo a lungo termine dell’AI a livello umano, essenzialmente perché GenAI ora si concentra su ciò che abbiamo un percorso chiaro”, ha detto LeCun. “[Raggiungere l’AGI] non è un problema di progettazione del prodotto, non è nemmeno un problema di sviluppo tecnologico, è molto più un problema scientifico”, ha aggiunto.

LeCun ha pubblicato per la prima volta un articolo sulla sua visione della modellazione del mondo nel 2022 e da allora Meta ha rilasciato due modelli di ricerca basati sull’approccio. Oggi, ha detto che Fair stava testando diverse idee per raggiungere l’intelligenza a livello umano perché “c’è molta incertezza ed esplorazione in questo, [quindi] non possiamo dire quale avrà successo o finirà per essere scelto”.

Tra questi, il team di LeCun sta alimentando i sistemi con ore di video e omettendo deliberatamente i fotogrammi, poi fa prevedere all’AI cosa succederà dopo. Questo per imitare come i bambini imparano osservando passivamente il mondo intorno a loro. Ha anche detto che Fair stava esplorando la costruzione di “un sistema universale di codifica del testo” che permetterebbe a un sistema di elaborare rappresentazioni astratte della conoscenza nel testo, che possono poi essere applicate a video e audio.

Alcuni esperti dubitano della fattibilità della visione di LeCun

Aron Culotta, professore associato di informatica alla Tulane University, sostiene che il buon senso è da tempo “una spina nel fianco dell’AI”, e che è difficile insegnare ai modelli la causalità, lasciandoli “suscettibili a questi fallimenti inaspettati”.

Nel lungo termine, LeCun ritiene che la tecnologia alimenterà agenti AI con cui gli utenti possono interagire attraverso tecnologie indossabili, tra cui realtà aumentata o occhiali “intelligenti”, e braccialetti elettromiografici (EMG). “[Per gli agenti IA] per essere davvero utili, devono avere qualcosa simile all’intelligenza umana”, chiarisce.

Articoli correlati