ANALISI

Superintelligenza o superautomazione? Questo è il dilemma dell’AI



Indirizzo copiato

Il capo del team di Intelligenza Artificiale Applicata nella divisione ingegneria di Goldman Sachs, che guida lo sviluppo e l’adozione delle applicazioni commerciali dell’AI nell’azienda, offre un particolare punto di vista sullo sviluppo futuro della tecnologia

Pubblicato il 18 ott 2024



pro contro intelligenza artificiale

Da Palo Alto a Pechino, gli ingegneri stanno correndo per creare superintelligenza – un’intelligenza artificiale in grado di pensare e ragionare, con un intelletto di gran lunga superiore al nostro. Ma i modelli all’avanguardia esistenti potrebbero essere destinati a offrire una “super-automazione”, piuttosto che una superintelligenza.1

profile-card
Dimitris Tsementzis

Dimitris Tsementzis, che dirige il team di Intelligenza Artificiale Applicata nella divisione ingegneria di Goldman Sachs, guidando lo sviluppo e l’adozione delle applicazioni commerciali dell’AI nell’azienda, si è interrogato su questa doppia possibilità

Tsementzis è membro del Firmwide Model Risk Control Committee e fellow del Goldman Sachs Global Institute. Riportiamo qui le sue riflessioni.

La nuova generazione di AI

Le AI esistenti si basano in genere su un modello linguistico di grandi dimensioni (LLM) basato su trasformatori, in grado di elaborare e comprendere il linguaggio naturale e di generare contenuti e svolgere compiti. Mentre le aziende investono miliardi di dollari nei semiconduttori per sbloccare capacità di AI sempre maggiori, è importante capire – riflette Tsementzis – che cos’è la superintelligenza, che cosa potrebbe essere necessario per ottenerla e se l’ultima generazione di AI sarà una base adeguata per queste ambizioni

Da AI a AGI

Che cos’è la superintelligenza?

Per AI si intende un sistema che supera il Test di Turing, cioè un sistema in grado di convincere un interlocutore umano di essere umano. Un’intelligenza artificiale generale (AGI) è un’AI che dimostra eccellenza in tutti i campi della conoscenza umana. Una superintelligenza – ritiene Tsementzis – sarebbe il passo successivo: un’AI che supera le capacità umane in tutti, o nella maggior parte, dei compiti cognitivi umani e quindi, per definizione, sarebbe una versione potenziata di un’AI.

Lo sviluppo di una superintelligenza richiederebbe quindi almeno due passi (o salti) in avanti rispetto all’attuale stato dell’arte. La superintelligenza sicura si riferisce a un’AI che ha obiettivi e priorità allineati con i valori umani, pur dimostrando capacità sovrumane nella maggior parte – o in tutti – i compiti cognitivi.

Cosa potrebbe risolvere una superintelligenza?

Tra i compiti che una superintelligenza degna di questo nome sarebbe in grado di svolgere, secondo Tsementzis ci sono:

  • risolvere congetture matematiche che sono sfuggite all’uomo (per esempio, i problemi del Millennium Prize)
  • prevedere con precisione il tempo atmosferico (per esempio con cinque anni di anticipo rispetto a cinque giorni)
  • costruire molecole per curare qualsiasi malattia virale o genetica.

A una superintelligenza “interesserebbero” cose come la superproduttività degli sviluppatori?

Un’intelligenza umana potenziata (ad esempio, un’intelligenza artificiale) probabilmente “si preoccuperebbe” di migliorare, potenziare e rendere possibili le attività umane (ad esempio, la codifica), dal momento che, dopo tutto, è un’intelligenza umana. Ma una superintelligenza lo farebbe? Si chiede Tsementzis.

In altre parole: un’intelligenza in grado di eseguire compiti di ragionamento a una velocità mille volte superiore a quella umana si preoccuperebbe davvero solo di eseguirli un milione di volte più velocemente?3

Gli esseri umani sono limitati dalla propria immaginazione per quanto riguarda i compiti che una superintelligenza potrebbe svolgere, poiché non siamo in grado di uscire dalle nostre ombre cognitive. Pertanto, nei compiti pratici, noi esseri umani possiamo solo immaginare versioni scalate o accelerate di noi stessi (ad esempio, risolvere più velocemente o meglio) – qualcosa che può essere chiamato “super-automazione”. Questa incertezza su quali compiti siano realmente possibili per (o accettabili per) una superintelligenza solleva la questione della sicurezza e dell’allineamento: come possono gli esseri umani garantire che una superintelligenza continui a “preoccuparsi” solo dei bisogni umani (come la produttività della codifica)?

Cosa potrebbe mancare per arrivare alla superintelligenza (sicura)?

Secondo Tsementzis, ci sono almeno tre sfide di ricerca fondamentali da risolvere per costruire una superintelligenza sicura:

  1. Autoapprendimento (riqualificazione autonoma): qualsiasi forma di intelligenza che gestisca compiti stazionari (ad esempio, individuare i gatti nelle foto piuttosto che prevedere i mercati) è probabilmente meglio definita “automazione”, il che significa che l’attuale generazione di AI è sulla traiettoria della “super-automazione”, piuttosto che della superintelligenza. Al contrario, l’intelligenza entra in gioco durante i cambiamenti di regime (ad esempio, i cambiamenti fondamentali nel mercato), perché queste sono le situazioni in cui gli esseri umani devono rivedere e rivedere le ipotesi e riconfigurare il loro apparato di ragionamento. In altre parole, queste sono le situazioni in cui l’uomo deve “mettere a punto” o (in termini di AI) “riaddestrare” se stesso. Pertanto, la superintelligenza richiederebbe probabilmente la capacità di ri-addestrarsi molto meglio di quanto noi umani siamo in grado di ri-addestrarci.
  2. Pensiero strutturale (ragionare per analogie anziché prevedere per correlazioni): la superintelligenza richiederà probabilmente architetture di AI che realizzino o codifichino il pensiero per analogia rispetto alla semplice cattura di correlazioni statistiche (che è ancora ciò che fanno le AI all’avanguardia basate sui trasformatori). Si tratterebbe di un paradigma, ad esempio, in cui un’AI non si limita ad apprendere le probabilità per le previsioni dei prossimi token, ma nel farlo affina anche la sua capacità di creare metafore e di trarre analogie inaspettate.4
  3. Etica asimmetrica (contro l’etica della razionalità condivisa): il raggiungimento della superintelligenza richiederebbe la soluzione di quello che può essere definito il “problema di Solaris“, cioè trovare modi pratici per comunicare con forme di intelligenza radicalmente diverse o superiori a quella umana.

Tsementzis propone questa visione: come può l’umanità creare un sistema in cui le formiche possano comunicarci ciò che pensano sia il modo giusto di trattarle (e viceversa)?

Per quanto possa sembrare fantasioso, il progetto di “insegnare” a una superintelligenza degna di questo nome ciò che è giusto e ciò che è sbagliato potrebbe essere simile – dove ovviamente, in questo caso, noi umani, per Tsementzis, saremmo le formiche.

Una superintelligenza sarà mai effettivamente utile o commerciale?

Anche nell’ipotesi che venga creata una superintelligenza sicura, non è chiaro se si rivelerebbe utile o intelligibile (o commerciale).

Le spiegazioni dei risultati dell’intelligenza artificiale sono necessarie in tutti i compiti? L’attuale generazione di LLM è probabilmente già superintelligente, ad esempio, in compiti come la produzione di pentametri giambici usando solo parole che iniziano con la lettera F. Ed è davvero necessario capire come sono in grado di farlo prima che la gente si goda la poesia? Capire o verificare non sarebbe essenziale ovunque, ma probabilmente lo sarebbe in applicazioni commerciali, sensibili al rischio o alla sicurezza.

Conclusione

Per Tsementzis, non è ancora chiaro se gli LLM basati su trasformatori possano essere l’architettura di base che realizza un sistema superintelligente. Più realisticamente, con le architetture attuali, il settore tecnologico è sulla strada della super-automazione e saranno necessarie nuove intuizioni per portarci sulla strada della superintelligenza. Tuttavia, raggiungere la superintelligenza in modo sicuro è un importante problema tecnico e di ricerca che sarà probabilmente perseguito da scienziati e imprenditori di primo piano, anche se gli impatti commerciali o sul mondo reale sono probabilmente molto lontani.

Note

1La possibilità di realizzare queste ambizioni è tipicamente un dibattito incentrato sulle leggi di scalabilità degli LLM (o di altri modelli), ovvero fino a che punto possiamo aspettarci che le loro prestazioni migliorino quanto più grandi diventano in termini di numero di parametri, dati e altri fattori. Un utile riferimento tecnico per queste indagini è qui: Maor Ivgi, Yair Carmon e Jonathan Berant, Scaling Laws Under the Microscope: Predicting Transformer Performance from Small Scale Experiments, (2022).

2Una classificazione dettagliata delle AGI e una definizione di superintelligenza sono fornite qui: Meredith Ringel Morris, Jascha Sohl-Dickstein, Noah Fiedel, Tris Warkentin, Allan Dafoe, Aleksandra Faust, Clement Farabet e Shane Legg, Position: Levels of AGI for Operationalizing Progress on the Path to AGI, (2024).

3Nick Bostrom, Quanto manca alla superintelligenza (International Journal of Future Studies, 1998).

4La ricerca di Melanie Mitchell, ad esempio, ha affrontato questo problema: John Pavlus, The Computer Scientist Training AI to Think with Analogies, (Quanta, 2021).

5Il legame tra formiche e superintelligenza è stato esplorato in vari luoghi. Ad esempio, sono stati condotti studi approfonditi sulle colonie di formiche tagliafoglie e sul modo in cui esse formano collettivamente un’intelligenza apparentemente superiore a quella degli individui che le compongono. Un riferimento classico è: Bert Hölldobler e Edward O. Wilson, The Leafcutter Ants: Civilization by Instinct, (W. W. Norton & Co. Ltd., 2010).

Articoli correlati

Articolo 1 di 4