World Economic Forum

Parla Sam Altman: “Una tecnologia molto potente, non possiamo dire con certezza cosa accadrà”



Indirizzo copiato

A Davos, il CEO di OpenAI ha discusso delle sfide e delle potenzialità dell’intelligenza artificiale, affrontando temi come la fiducia nell’AI, le sue limitazioni e l’importanza di un approccio iterativo per garantire la sua sicurezza e affidabilità. Tra i temi, anche la causa con il NYT e il suo “licenziamento” di fine anno

Pubblicato il 19 gen 2024



Sam Altman WEF

Sam Altman, CEO di OpenAI e attuale enfant prodige della scena dell’intelligenza artificiale, ha partecipato a un panel di alto profilo al World Economic Forum (WEF) di Davos. Durante l’evento, Altman ha condiviso le sue riflessioni su una serie di questioni relative all’AI. Interrogato sulla paura comune che l’AI possa sostituire gli esseri umani o perché non può ancora guidare un’auto, Altman ha risposto che l’AI è un strumento potente ma ancora limitato e imperfetto. Ha sottolineato che non vorrebbe che l’AI guidasse un’auto, ma è contento che possa assistere nelle attività creative o nel codice.

WEF: Altman e la fiducia nell’AI

Altman ha poi affrontato la questione della fiducia nell’AI. Ha osservato che gli esseri umani sono generalmente indulgenti con gli errori umani ma molto meno con quelli dei computer. Pertanto, per accettare ad esempio le auto a guida autonoma, queste devono essere da 10 a 100 volte più sicure delle auto guidate da esseri umani. Riguardo alla possibilità dell’AI di superare le capacità emotive umane, Altman ha citato l’esempio degli scacchi. Nonostante i computer siano in grado di battere gli esseri umani negli scacchi da decenni, il gioco non è mai stato così popolare come ora. Altman ha anche discusso del processo attraverso il quale OpenAI sta cercando di rendere l’intelligenza artificiale sicura e affidabile. Ha sottolineato l’importanza di un approccio iterativo, introducendo gradualmente la tecnologia nel mondo e dando tempo alla società e alle istituzioni di discutere su come regolamentarla.

Alla domanda: “Elon Musk, e talvolta Bill Gates, e altre persone sono molto preoccupate per l’AI. Perché pensa che si sbaglino?”, Altman ha risposto: “Non credo che sia garantito che si sbaglino. Si tratta di una tecnologia chiaramente molto potente e non possiamo dire con certezza cosa accadrà. È così per tutte le nuove grandi rivoluzioni tecnologiche. Ma è facile immaginare che questa avrà effetti massicci sul mondo e che potrebbe andare molto male. La direzione tecnologica in cui abbiamo cercato di spingerla è quella che pensiamo di poter rendere sicura, e questo include molte cose. Crediamo nell’implementazione iterativa. Mettiamo questa tecnologia nel mondo, in modo che la gente si abitui. Abbiamo il tempo, come società, o come istituzioni, di discutere su come regolamentare questa tecnologia, su come mettere dei paletti”.

Nel corso dell’incontro al WEF, ad Altman è stato poi chiesto: “Si possono tecnicamente mettere dei guardrail e creare una sorta di costituzione per un sistema di AI?”. La risposta è stata: “Se si considerano i progressi compiuti da GPT-3 a GPT-4 per quanto riguarda la capacità di allinearsi a un insieme di valori, abbiamo fatto enormi passi avanti. Ora, c’è una domanda più difficile di quella tecnica, ovvero: ‘Chi decide quali sono questi valori, quali sono i valori predefiniti e quali sono i limiti? Come funziona in questo Paese rispetto a quell’altro? Che cosa mi è permesso fare con esso o no?’ Questa è una grande questione sociale, una delle più grandi. Da un punto di vista tecnologico, però, c’è spazio per l’ottimismo, anche se la tecnica (o le tecniche) di allineamento che abbiamo ora non credo che possa arrivare fino a sistemi molto più potenti, quindi dovremo inventare cose nuove. Penso che sia positivo che le persone abbiano paura degli aspetti negativi di questa tecnologia. È positivo che se ne parli, positivo che noi e gli altri siamo tenuti a rispettare standard elevati”.

Technology in a Turbulent World | Davos 2024 | World Economic Forum
Video: l’intervento di Sam Altman al World Economic Forum 2024 di Davos

La causa con il New York Times

Rispondendo a una domanda sulla causa intentata dal New York Times, che sostiene che OpenAI utilizzi i suoi articoli per fare previsioni linguistiche, Altman ha affermato che non hanno bisogno di formarsi sui dati del New York Times. Ha spiegato che il loro obiettivo è mostrare contenuti da editori come il New York Times quando un utente fa una domanda specifica, non utilizzarli per addestrare il modello.

WEF: Altman e il “licenziamento” da OpenAI

Infine, al WEF Altman ha parlato del suo coinvolgimento nello scandalo aziendale molto pubblicizzato. Ha riconosciuto che il consiglio di amministrazione era diventato troppo piccolo e mancava dell’esperienza necessaria. Tuttavia, ha elogiato la forza della sua squadra e ha espresso fiducia nel futuro dell’azienda.

“La cosa migliore che ho imparato in tutto questo, di gran lunga, è stata la forza della nostra squadra. Quando il giorno dopo il licenziamento il Consiglio di amministrazione mi ha chiesto se stavo pensando di tornare, la mia risposta immediata è stata no, perché ero molto sconvolto da tante cose. Poi mi sono subito ricreduto e ho capito che non volevo vedere distrutto tutto il valore costruito da tutte queste persone meravigliose, che ci hanno messo la vita, e da tutti i nostri clienti. Ma sapevo anche che… l’azienda sarebbe stata bene anche senza di me”, ha concluso Altman

Articoli correlati

Articolo 1 di 2