Che succederà ora, dopo che Sam Altman è tornato a capo di OpenAI? Quale lezione trarre per il futuro dell’intelligenza artificiale? La situazione non ha raggiunto in realtà un vero punto di equilibrio, quindi resta incerta.
È vero però che una svolta è avvenuta ed è a favore di una certa visione di intelligenza artificiale, pronta al business e spinta da necessità di profitto. Di fronte a questa evoluzione, sarà ancora più importante uno sforzo collettivo, di Stati, aziende, società civile, per provare a governare al meglio il cambiamento ora in atto.
OpenAI, la rinascita dopo la tempesta
OpenAI si è trovata infatti al centro di una competizione intensa, un vero e proprio campo di battaglia delle idee, dove si confrontano due visioni dell’intelligenza artificiale.
Da una parte, l’intelligenza artificiale è vista come una forza trasformativa, una sorta di nuova frontiera tecnologica che potrebbe rivaleggiare con invenzioni storiche come il motore a vapore, l’elettricità e il personal computer. Questa prospettiva intravede un futuro in cui l’AI potrebbe non solo portare prosperità ma anche trasformare radicalmente il modo in cui viviamo, lavoriamo e pensiamo, promettendo guadagni significativi per coloro che riescono a sfruttarne al meglio le capacità.
Dall’altra parte, si delinea una visione più cauta, quasi inquietante, dell’intelligenza artificiale. Qui, l’AI viene descritta come una sorta di entità aliena, un “leviatano” emergente dalle intricate maglie dei reticoli neurali. In questa narrativa, l’intelligenza artificiale è qualcosa che va tenuto sotto controllo, gestito con attenzione e cautela per evitare possibili scenari catastrofici.
Il ritorno di Sam Altman alla guida di OpenAI, dopo una precedente separazione dall’azienda, segna un momento significativo in questa complessa trama. La sua rinnovata leadership segna una virata verso una prospettiva più orientata al capitalismo nel mondo dell’AI. Significativa in questo contesto è la composizione del nuovo consiglio di amministrazione di OpenAI, che annovera personalità di spicco come Adam D’Angelo, CEO di Quora; Bret Taylor, con un bagaglio di esperienze in aziende come Facebook e Salesforce; e l’ex Segretario del Tesoro degli USA, Lawrence H. Summers. Questa formazione non solo evidenzia l’ambizione economica di OpenAI, ma anche il suo obiettivo di affermarsi come un’entità di primo piano nel settore in rapida evoluzione dell’intelligenza artificiale.
Ilya Sutskever, scienziato capo di OpenAI, insieme ai membri del consiglio Helen Toner e Tasha McCauley, che avevano supportato l’allontanamento di Altman, incarnano un orientamento verso l’AI più focalizzato sull’etica e sulle sue conseguenze future. Provenienti da sfondi eterogenei, che spaziano dagli accademici ai visionari della Silicon Valley, fino agli esperti di tecnologie dell’informazione, questi professionisti hanno manifestato preoccupazioni riguardo potenziali scenari futuri nell’ambito dell’AI, come il concetto di “singolarità”.
Tuttavia, una svolta decisiva è stata segnata dall’azione collettiva dei dipendenti di OpenAI. Più di 500 dei 770 membri dello staff hanno firmato una lettera chiedendo le dimissioni dell’intero consiglio e il rientro di Altman. Questa mobilitazione interna, unita al sostegno di figure eminenti della Silicon Valley e di investitori come Brian Chesky di Airbnb, Ron Conway e l’ex dirigente di Salesforce Bret Taylor, poi nominato presidente del consiglio rinnovato, ha giocato un ruolo cruciale negli ultimi sviluppi organizzativi.
Con l’arrivo di potenti AI come ChatGPT, il settore tecnologico sta assistendo a un cambiamento di paradigma. Le maggiori aziende del settore si sfidano per sviluppare sistemi sempre più avanzati, investendo miliardi di dollari per integrare l’AI nelle loro strutture, nella speranza di ridurre i costi del lavoro e incrementare la produttività.
I nuovi membri del consiglio di OpenAI incarnano le figure tipiche che ci si aspetterebbe in un progetto di tale portata, adottando un approccio più convenzionale alla governance, meno incline a rischi di colpi di scena o cambiamenti repentini che potrebbero forzare i clienti a orientarsi rapidamente verso diversi fornitori di AI.
OpenAI, il nuovo consiglio di amministrazione
La situazione resta incerta e non ideale; diversa da quella a cui mirava Altman.
L’insolito assetto societario di OpenAI – in cui un consiglio di amministrazione senza scopo di lucro governa un ramo d’azienda che ha raccolto fondi esterni dagli investitori – rimarrà per ora. Secondo l’attuale statuto, l’unica responsabilità del consiglio di amministrazione è quella di garantire che l’azienda sviluppi sistemi di intelligenza artificiale utili all’umanità, anche se ciò significa azzerare i profitti degli investitori.
Il nuovo consiglio di amministrazione ha molto da fare nei prossimi mesi. È stato incaricato di nominare i direttori per un consiglio allargato e probabilmente esplorerà modifiche sostanziali alla struttura di governance di OpenAI, hanno detto persone che hanno familiarità con la questione. La maggior parte degli investitori e dei dirigenti di OpenAI si aspetta nuovi controlli ed equilibri che limitino la capacità del consiglio di amministrazione di estromettere così bruscamente un fondatore e di mettere a rischio miliardi di dollari di valore aziendale.
Altman alla fine ha accettato un accordo che non lo includeva nel consiglio di amministrazione, così limitando la sua influenza.
Altman ha anche perso un alleato chiave nel consiglio di amministrazione: l’ex presidente di OpenAI Greg Brockman, che è stato bruscamente rimosso come amministratore proprio prima del licenziamento di Altman. Brockman aveva inizialmente lasciato l’azienda per protestare contro questa mossa. Ora è tornato in azienda, ma non come membro del consiglio di amministrazione.
Le parti hanno anche concordato un’indagine indipendente sulla condotta di Altman e sulla decisione del consiglio di amministrazione di licenziarlo.
Non è ancora chiaro se Microsoft avrà un ruolo nel consiglio di amministrazione all’interno della nuova struttura. Se ne otterrà uno, potenzialmente un ruolo di osservatore del consiglio, Satya Nadella, Ceo dell’azienda di Redmond, otterrà la visibilità sulla governance di OpenAI che gli mancava. Ma se così non fosse, e soprattutto se Altman non venisse nominato nel consiglio di amministrazione più ampio, Microsoft uscirebbe da questa turbolenza in una posizione peggiore, con ancora meno visibilità e controllo su uno dei suoi asset più preziosi.
Tutto sommato, nonostante questa incertezza di fondo, sembra che la prevalenza degli interessi aziendali su quelli etici sia quasi inevitabile, considerata l’importanza crescente dell’AI e del suo forte bisogno di finanziarsi; con i miliardi di Microsoft, in questo caso.
Una tecnologia capace di innescare una Quarta Rivoluzione Industriale difficilmente sarebbe stata governata a lungo termine da coloro che avrebbero preferito moderarne lo sviluppo, specialmente in presenza di investimenti così ingenti.
Questa evoluzione segnala un cambiamento di paradigma: da una focalizzazione sui rischi e le implicazioni etiche dell’AI, a un interesse predominante nel realizzarne il potenziale economico e innovativo. La lotta interna in OpenAI, dunque, non è soltanto una contesa aziendale, ma riflette una questione più vasta riguardo il futuro dell’intelligenza artificiale, orientandosi verso lo sviluppo dell‘AGI (Artificial General Intelligence).
Decifrare l’evoluzione dell’AI attraverso la tassonomia di DeepMind
Per capire a fondo le dinamiche e le implicazioni della competizione nel settore dell’intelligenza artificiale, è essenziale avere una chiara comprensione delle capacità sia dell’Intelligenza Artificiale Generale (AGI) che delle forme più tradizionali di intelligenza artificiale. In questo scenario, il contributo di DeepMind, un’entità di Google, assume un ruolo vitale. Ciò è dovuto alla sua innovativa tassonomia, che categorizza non solo le funzionalità, ma anche i comportamenti dei modelli di AGI e dei loro antecedenti. Questa classificazione fornisce un quadro dettagliato e ordinato per analizzare e comprendere in modo più accurato queste tecnologie avanzate.
La struttura si basa sui “Livelli di AGI”, che valutano sia la profondità (performance) sia l’ampiezza (generality) delle capacità. La scala varia dal Livello 0 (No AI) al Livello 5 (Superumano), includendo categorie come l’AGI “Narrow” (specializzato in compiti specifici) e l’AGI “General” (capace di gestire compiti non fisici che comprendono competenze metacognitive).
Questo approccio fornisce un linguaggio comune per confrontare i modelli, valutare i rischi e misurare il progresso verso l’AGI, analogamente ai livelli di guida autonoma. I principi chiave includono la focalizzazione sulle capacità piuttosto che sui meccanismi e la valutazione separata della generality e della performance, definendo così le tappe lungo il percorso verso l’AGI anziché concentrarsi sull’obiettivo finale.
AGI è un concetto di rilevanza pratica, con alcuni esperti che rilevano già “scintille” di AGI nei moderni modelli di linguaggio (Large Language Models, LLMs). Questi modelli, come ChatGPT, Bard e Llama 2, sono considerati “Emerging AGI” (Livello 1), mostrando performance di livello “Competent” in alcuni compiti ma ancora a livello “Emerging” per la maggior parte delle attività.
La progressione tra i vari livelli di performance e generality può essere non lineare. Ad esempio, l’acquisizione della capacità di apprendere nuove abilità può accelerare in modo significativo il progresso verso il prossimo livello. È importante notare che, sebbene i sistemi siano in grado di raggiungere un certo livello di performance (ad esempio, contro un benchmark specifico), potrebbero non corrispondere a questo livello nella pratica quando vengono distribuiti, a causa di limitazioni come quelle dell’interfaccia utente.
In sintesi, la tassonomia di DeepMind offre una cornice metodologica per valutare e comprendere lo sviluppo dell’AGI, considerando sia la performance che la generality, e sottolineando l’importanza di creare benchmark validi per misurare la performance effettiva dei sistemi AGI in scenari di distribuzione reali.
Il futuro dell’AI: leadership, investimenti e innovazione in un mercato in espansione
L’evoluzione nell’ambito dell’intelligenza artificiale (AI) e, in particolare, dell’Intelligenza Generale Artificiale (AGI) è ancora nelle sue fasi iniziali. Questo è chiaramente illustrato nella tassonomia proposta da DeepMind. Tuttavia, anche in questa fase precoce, sta già emergendo un panorama economico e strategico di notevole complessità. In tale scenario, assume rilevanza cruciale il ruolo di leadership nel settore. Attualmente, Microsoft e OpenAI si stanno affermando come attori principali, guidando significativi sviluppi e innovazioni.
La collaborazione tra Microsoft e OpenAI è stata una mossa strategica cruciale per entrambe le entità. Sotto la direzione del CEO Satya Nadella, Microsoft ha investito 13 miliardi di dollari in OpenAI, guadagnandosi diritti esclusivi su alcune delle tecnologie più innovative. Questa partnership non solo ha rafforzato la posizione di Microsoft nel settore dell’AI, ponendola al di sopra di giganti come Facebook, Google e Apple, ma ha anche aperto nuove frontiere nell’innovazione tecnologica.
Allo stesso tempo, Google continua a dimostrare il suo impegno nel campo dell’AI, effettuando un investimento di 2 miliardi di dollari in Anthropic e valutando ulteriori investimenti di centinaia di milioni in Character.AI.
Meta, nonostante le notevoli perdite della sua divisione Reality Labs, sta aumentando gli investimenti in AI. Apple, per la sua parte, prevede un investimento di 620 milioni di dollari in AI per il 2023, con l’obiettivo di espandere ulteriormente il suo impegno fino a 4,75 miliardi di dollari entro il 2024.
Il mercato globale dell’AI è in una fase di crescita esponenziale. Valutato a circa 207,9 miliardi di dollari nel 2023, si prevede che raggiungerà un valore di 1,85 trilioni di dollari entro il 2030, segnando un incremento di quasi nove volte in meno di un decennio. Questa crescita è un indicatore del CAGR del 32,9% dal 2022 al 2030. L’AI sta avendo un impatto profondo in diversi settori, dalla sanità all’automotive, dai servizi finanziari al retail, passando per le comunicazioni, l’intrattenimento, la produzione, l’energia, i trasporti e la logistica. Questa versatilità rappresenta uno dei maggiori vantaggi dell’AI, con applicazioni che si estendono dagli algoritmi nascosti fino a quelli integrati a livello di utente finale.
Il legame tra OpenAI e Microsoft rappresenta un punto di svolta strategico ed economico nell’ambito dell’AI. Per Microsoft, è un’opportunità per consolidare ulteriormente la propria posizione di leader nel settore digitale. Per OpenAI, significa esplorare un territorio complesso con un forte supporto economico e un’eccellenza tecnologica. La crescita del mercato dell’AI evidenzia l’immenso potenziale economico che queste tecnologie rappresentano per le aziende e l’economia mondiale. Tuttavia, ci sono anche rischi da considerare e, in questo senso, la tassonomia di DeepMind ci offre un prezioso strumento per comprendere meglio questi aspetti.
Rischi e considerazioni etiche associati all’AGI
L’Intelligenza Artificiale Generale (AGI), nonostante le sue promettenti prospettive, porta con sé una serie di rischi e questioni etiche che non possiamo ignorare. Immaginate una tecnologia così avanzata che inizia a prendere decisioni per noi, influenzando non solo la nostra vita quotidiana ma anche questioni di grande portata come l’economia e la politica internazionale. Questi rischi, noti come “x-risk” o rischi esistenziali, diventano particolarmente preoccupanti man mano che ci avviciniamo a forme di intelligenza artificiale sempre più avanzate, come l’Intelligenza Artificiale Superiore (ASI).
Pensiamo, ad esempio, a un AGI di livello “Esperto”: potrebbe portare a disoccupazione di massa e sconvolgimenti economici. E se arrivassimo a livelli ancora più avanzati, come il “Virtuoso AGI” o l’ASI, potremmo trovarci di fronte a intelligenze artificiali che superano le nostre capacità in svariati compiti e che potrebbero manipolarci per perseguire i loro obiettivi.
Non meno importanti sono i rischi sistemici, come la destabilizzazione delle relazioni internazionali. Immaginate se una nazione ottenesse per prima l’ASI e la utilizzasse per ottenere un vantaggio geopolitico o militare; le conseguenze potrebbero essere imprevedibili.
Questi rischi non sono solo teorici, ma sono concreti e richiedono un’attenta valutazione. La tassonomia dell’AGI non serve solo a classificare le varie forme di AI, ma anche a guidare la ricerca sulla sicurezza e l’etica. Dobbiamo comprendere che le capacità dell’AGI devono essere valutate non solo per sé stesse, ma anche in relazione ai contesti in cui vengono utilizzate.
Prendiamo in considerazione l’uso di droni militari automatizzati. Anche se sviluppassimo un sistema AGI di Livello 5, capace di operare questi droni in completa autonomia per missioni di sorveglianza o intervento, ci sarebbero situazioni in cui è preferibile mantenere un controllo umano diretto. Ad esempio, in operazioni complesse dove sono in gioco questioni etiche delicate o il rischio di danni collaterali, l’intervento umano potrebbe essere fondamentale per prendere decisioni ponderate, evitare errori tragici e assicurare il rispetto delle leggi internazionali e dei diritti umani.
In sintesi, mentre l’AGI apre orizzonti affascinanti, è fondamentale procedere con cautela, considerando attentamente le implicazioni etiche e i rischi associati. Solo così potremo garantire un futuro in cui la tecnologia lavori a nostro favore, senza minacciare l’equilibrio del nostro mondo.
L’importanza del ruolo pubblico
L’eco globale suscitato dai recenti cambiamenti nella governance di ChatGPT e le proiezioni di crescita nel mercato dell’AI evidenziano la necessità di bilanciare gli obiettivi economici con quelli etici. È fondamentale trovare una gestione equilibrata che non penda eccessivamente verso il business o sia troppo ristretta da limitazioni etiche che potrebbero frenare lo sviluppo tecnologico. Questa ricerca di equilibrio, seppur complessa, è vitale, soprattutto considerando l’impatto potenziale dell’intelligenza artificiale su ogni ambito della società nei prossimi decenni, in modi oggi difficili da anticipare per la mancanza di precedenti storici.
Finora OpenAI è stato un esperimento di autoregolamentazione. Il flop di questo tentativo riporta in primo piano la necessità di un più forte ruolo pubblico, che comincia a formarsi, a livello internazionale con i Safety Institutes (USA, UK) e con intese di massima; negli USA con il decreto di Biden e in Europa (faticosamente) con il futuro AI Act.
La sensazione, ancora di più adesso, è che la tecnologia e il business vadano troppo veloci per gli Stati e le regole. Occorre accelerare, pur rispettando l’equilibrio tra innovazione e sicurezza, anche potenziando investimenti e competenze pubbliche per governare questo cambiamento.
La comprensione e la gestione dei rischi che emergono con l’evoluzione dell’Intelligenza Artificiale Generale (AGI) e dell’AI in generale sono fondamentali per indirizzare uno sviluppo responsabile. Questi sforzi sono imprescindibili per il futuro della società umana, in un contesto dove l’AI sta diventando sempre più integrata nelle strutture sociali ed economiche a livello mondiale.
A partire da novembre 2022, l’AI è diventata un argomento di primo piano, innescando dibattiti sulla sua governance e sul delicato bilanciamento tra obiettivi commerciali e considerazioni etiche. Tuttavia, questo è solo l’inizio di una trasformazione molto più ampia e profonda. Il traguardo dell’Intelligenza Artificiale Generale (AGI) di Livello 5 rappresenterà una svolta epocale, superando notevolmente le capacità dei sistemi esistenti come ChatGPT. Questo sviluppo segnerà un salto rivoluzionario, trasportando l’AI in una nuova era di potenzialità e applicazioni. Di fronte alle già impressionanti capacità di piattaforme come ChatGPT, è importante riflettere su come l’umanità reagirà all’avvento di un’AGI di Livello 5 e quali saranno le sue conseguenze.