Questo è stato uno degli anni più vivaci di sempre, per usare un eufemismo, nel campo dell’AI. Oltre ai numerosissimi annunci di nuovi modelli e di nuove tecnologie, agli investimenti miliardari e agli stravolgimenti societari, abbiamo anche assistito a strumenti e politiche concrete che mirano a far sì che il settore dell’AI si comporti in modo più responsabile e a responsabilizzare gli attori più potenti. Segnali che fanno ben sperare per il futuro dell’AI. Ecco come l’intelligenza artificiale ha segnato questo 2023.
1. L’intelligenza artificiale generativa ha lasciato i laboratori, ma non è chiaro quale sarà la sua prossima meta
L’anno è iniziato all’insegna dell’AI generativa. Il successo di ChatGPT di OpenAI ha spinto tutte le principali aziende tecnologiche a rilasciare la propria versione. Quest’anno potrebbe passare alla storia come l’anno in cui abbiamo assistito al maggior numero di lanci di AI: Meta LLaMA 2, il chatbot Bard e Gemini di Google, Ernie Bot di Baidu, GPT-4 di OpenAI e una manciata di altri modelli, tra cui quello di un concorrente open source francese, Mistral.
Ma nonostante il clamore iniziale, non abbiamo visto nessuna applicazione AI diventare un successo immediato. Microsoft e Google hanno presentato una ricerca potente basata sull’intelligenza artificiale, ma si è rivelata più un fiasco che una killer app. I difetti fondamentali dei modelli linguistici, come il fatto che spesso si inventano le cose, hanno portato ad alcune gaffe imbarazzanti (e, siamo onesti, esilaranti).
Bing di Microsoft rispondeva spesso alle domande delle persone con teorie cospirative e suggeriva a un giornalista del New York Times di lasciare la moglie. Bard di Google ha generato risposte non corrette per la sua campagna di marketing, che ha fatto perdere 100 miliardi di dollari al prezzo delle azioni della società.
È attualmente in corso una frenetica caccia a un prodotto di AI popolare che tutti vorranno adottare. Sia OpenAI che Google stanno sperimentando la possibilità di consentire ad aziende e sviluppatori di creare chatbot AI personalizzati e di permettere alle persone di creare le proprie applicazioni utilizzando l’AI, senza bisogno di competenze di codifica. Forse l’AI generativa finirà per essere incorporata in strumenti noiosi ma utili per aiutarci ad aumentare la nostra produttività al lavoro. Potrebbe assumere la forma di assistenti AI, magari con capacità vocali e supporto alla codifica.
Il prossimo anno sarà cruciale per determinare il valore reale dell’AI generativa.
2. Abbiamo imparato molto su come funzionano i modelli linguistici, ma ne sappiamo ancora poco
Anche se le aziende tecnologiche stanno introducendo modelli linguistici di grandi dimensioni nei prodotti a un ritmo frenetico, ci sono ancora molte cose che non sappiamo su come funzionano. Inventano cose e hanno gravi pregiudizi etnici e di genere. Quest’anno abbiamo anche scoperto che modelli linguistici diversi generano testi con pregiudizi politici diversi e che sono ottimi strumenti per violare le informazioni private delle persone. I modelli di testo-immagine possono essere indotti a generare immagini protette da copyright e immagini di persone reali, e possono essere facilmente ingannati per generare immagini inquietanti. È stato eccitante vedere così tante ricerche sui difetti di questi modelli, perché questo potrebbe portarci un passo più vicino a capire perché si comportano nel modo in cui si comportano e, in ultima analisi, a correggerli.
I modelli generativi possono essere molto imprevedibili e quest’anno ci sono stati molti tentativi di farli comportare come vogliono i loro creatori. OpenAI ha condiviso l’uso di una tecnica chiamata “Reinforcement learning from human feedback” (RLFHF), che utilizza il feedback degli utenti per guidare ChatGPT verso risposte più desiderabili. Uno studio del laboratorio di AI Anthropic ha mostrato come semplici istruzioni in linguaggio naturale possano orientare modelli linguistici di grandi dimensioni per rendere i loro risultati meno tossici. Purtroppo, però, molti di questi tentativi finiscono per essere soluzioni rapide piuttosto che permanenti.
Ci sono poi approcci sbagliati come il divieto di parole apparentemente innocue, come “placenta” dai sistemi di AI che generano immagini. Le aziende tecnologiche escogitano soluzioni come queste perché non sanno perché i modelli generano i contenuti che generano.
Abbiamo anche un’idea più precisa della reale impronta di carbonio dell’AI. I ricercatori della startup Hugging Face e della Carnegie Mellon University hanno scoperto che generare un’immagine utilizzando un potente modello di intelligenza artificiale richiede una quantità di energia pari alla ricarica completa dello smartphone. Finora, l’esatta quantità di energia utilizzata dall’AI generativa era un pezzo mancante del puzzle. Ulteriori ricerche in merito potrebbero aiutarci a modificare il modo in cui utilizziamo l’AI per renderla più sostenibile.
3. Il “catastrofismo” dell’AI è diventato mainstream
Quest’anno il dibattito sulla possibilità che l’AI rappresenti un rischio esistenziale per gli esseri umani è diventato familiare. Centinaia di scienziati, leader aziendali e politici si sono espressi, dai pionieri dell’apprendimento profondo Geoffrey Hinton e Yoshua Bengio agli amministratori delegati delle più importanti aziende di AI, come Sam Altman e Demis Hassabis, fino al deputato della California Ted Lieu e all’ex presidente dell’Estonia Kersti Kaljulaid.
Il rischio esistenziale è diventato uno dei più grandi meme dell’AI. L’ipotesi è che un giorno costruiremo un’AI molto più intelligente degli esseri umani e questo potrebbe portare a gravi conseguenze. È un’ideologia sostenuta da molti nella Silicon Valley, tra cui Ilya Sutskever, scienziato capo di OpenAI, che ha svolto un ruolo fondamentale nell’estromettere l’amministratore delegato di OpenAI Sam Altman (per poi reintegrarlo pochi giorni dopo).
Ma non tutti sono d’accordo con questa idea. I leader dell’AI di Meta, Yann LeCun e Joelle Pineau, hanno dichiarato che questi timori sono “ridicoli” e che la conversazione sui rischi dell’AI è diventata “sconsiderata”. Molti altri protagonisti dell’AI, come la ricercatrice Joy Buolamwini, sostengono che concentrarsi su rischi ipotetici distrae dai danni reali che l’AI sta causando oggi.
Ciononostante, l’accresciuta attenzione sul potenziale della tecnologia di causare danni estremi ha stimolato molte importanti conversazioni sulla politica dell’AI e ha spinto i legislatori di tutto il mondo ad agire.
4. I giorni del Far West dell’AI sono finiti
Grazie a ChatGPT, quest’anno tutti, dal Senato degli Stati Uniti al G7 al Parlamento Ue, hanno parlato di politiche e normative sull’AI. All’inizio di dicembre, i legislatori europei hanno concluso un anno politico intenso con l’accordo provvisorio sull‘AI Act, che introdurrà regole e standard vincolanti su come sviluppare in modo più responsabile le AI più rischiose. Inoltre, vieterà alcune applicazioni “inaccettabili” dell’AI, come l’uso da parte della polizia del riconoscimento facciale nei luoghi pubblici.
La Casa Bianca, nel frattempo, ha presentato un ordine esecutivo sull’AI, oltre a impegni volontari da parte delle principali aziende. I suoi sforzi mirano a portare maggiore trasparenza e standard per l’AI e hanno dato molta libertà alle agenzie di adattare le regole sull’AI ai loro settori.
Una proposta politica concreta che ha attirato molta attenzione è quella dei watermark, segnali invisibili nel testo e nelle immagini che possono essere rilevati dai computer per segnalare i contenuti generati dall’AI. Questi segnali potrebbero essere utilizzati per tracciare il plagio o aiutare a combattere la disinformazione, e quest’anno abbiamo assistito a una ricerca che è riuscita ad applicarli a testi e immagini generati dall’intelligenza artificiale.
Non sono stati impegnati solo i legislatori, ma anche gli avvocati. Abbiamo assistito a un numero record di cause legali, in cui artisti e scrittori sostenevano che le aziende di AI avevano fatto incetta della loro proprietà intellettuale senza il loro consenso e senza alcun compenso.
In un’entusiasmante controffensiva, i ricercatori dell’Università di Chicago hanno sviluppato Nightshade, un nuovo strumento di avvelenamento dei dati che consente agli artisti di contrastare l’AI generativa, alterando i dati di addestramento in modo da causare gravi danni ai modelli di AI che generano immagini.
Questo significa che è in atto una resistenza. L’augurio per il prossimo anno è che si moltiplichino gli sforzi per spostare l’equilibrio di potere della tecnologia.