Lo sviluppo dell’AI al ritmo cui abbiamo assistito negli ultimi mesi sta portando alla luce preoccupazioni non solo di stampo economico e sociale, ma anche esistenziale. Ora che l’arrivo di macchine intelligenti almeno quanto l’essere umano non sembra più fantascienza, riemergono quindi le paure che si erano manifestate agli albori di questa tecnologia ed erano state temporaneamente sopite dal concretizzarsi di ostacoli tecnologici che avevano portato ai c.d. “inverni” dell’intelligenza artificiale. Quali sono, realmente, i rischi dell’AI?
Scope, graffette e apocalisse: gli allarmi lanciati dagli esperti
Già nel 1960 il matematico Norbert Wiener, considerato uno dei padri di questa tecnologia, metteva in guardia dagli effetti imprevedibili dell’AI ricordando la famosa fiaba di Goethe sull’apprendista stregone che, dopo aver incantato una scopa per riempire d’acqua una vasca da bagno, si ritrovava con la stanza allagata perché incapace di far intendere all’oggetto quando era il momento di smettere.
Pensato nel 2003 appositamente per l’intelligenza artificiale, invece, è l’esperimento mentale del filosofo Nick Bostrom sul massimizzatore di graffette: un’AI progettata per creare più graffette possibile finisce per coprire la Terra di fabbriche di questo oggetto e, nel farlo, sterminare l’umanità (che non era necessaria per raggiungere l’obiettivo).
Entrambe le storie riguardano gli effetti secondari non previsti di istruzioni fornite a strumenti che sono sì intelligenti, ma non nel modo a cui siamo abituati nelle interazioni umane. È chiaro che si tratta di semplificazioni, che mostrano però come in questo campo nulla possa essere dato per scontato: non siamo di fronte a una persona dotata di buon senso o empatia, ma a una macchina che ottimizza le proprie scelte per raggiungere l’obiettivo prefissato nel modo più efficiente possibile. Eppure, il problema sollevato è oltremodo attuale e si riacutizza nel momento in cui ci troviamo di fronte alle AI di oggi, che stiamo ancora imparando a conoscere poiché contribuiscono in modo significativo alla propria progettazione con dei meccanismi che, a volte, sono difficili da comprendere.
Quando ci troviamo di fronte a delle “black-box” diventa molto complesso prevedere tutti i possibili effetti secondari e fornire gli appositi correttivi. Per questo motivo negli ultimi mesi vari esperti del settore hanno espresso forti preoccupazioni e non escludono la possibilità che l’ascesa dell’AI, se continua in questo modo, potrebbe portare addirittura all’estinzione dell’essere umano. Ma quanto sono concreti questi rischi dell’AI?
I rischi dell’AI, gli esperti sono divisi
Sul punto sembrano esserci orientamenti contrastanti. Secondo uno studio citato dall’Economist (che dovrebbe essere pubblicato la prossima estate) in media secondo gli esperti di AI c’è il 3,9% di probabilità di una catastrofe esistenziale causata da queste tecnologie entro il 2100. Per gli analisti, invece, la percentuale si riduce allo 0,38 %.
Tuttavia, hanno fatto molto discutere le dichiarazioni di Geoffrey Hinton, scienziato che ha contribuito allo sviluppo dei sistemi di deep learning e che, dopo anni di lavoro per Google, ha deciso di lasciare la compagnia per avere maggiore libertà nell’esplorare i risvolti più filosofici del settore. Hinton sostiene che le AI stanno diventando molto più intelligenti di quanto si aspettasse in passato, e che lo spaventano le possibili conseguenze: si tratta, secondo lui, di una nuova forma di intelligenza, diversa da quella biologica, che non va affatto sottovalutata. Secondo lo scienziato, tra non molto le AI supereranno le capacità intellettive umane e diventeranno capaci di fissare dei propri obiettivi secondari, imprevedibili per i programmatori e potenzialmente letali. Inoltre, è preoccupante anche la prospettiva che questi sistemi vengano utilizzati da soggetti privi di scrupoli etici, rendendoli ad esempio delle macchine da guerra senza limiti.
Per Yann LeCun, capo ricercatore sull’AI per Meta, le prospettive non sono così cupe: concorda con Hinton sul fatto che in futuro le macchine saranno più intelligenti degli umani, ma è ottimista sulle conseguenze di questa evoluzione. Nell’ottica di LeCun, anche nella razza umana chi è più intelligente non per forza si dimostra interessato alla dominazione degli altri. L’avvento dell’AI super-intelligente potrebbe quindi coincidere non con l’Apocalisse, ma con un nuovo Rinascimento.
Nel 2018 Hinton e LeCun hanno vinto il Premio Turing per le loro ricerche sul deep learning insieme al collega Yoshua Bengio. Quest’ultimo ha una visione meno polarizzata del futuro dell’umanità e dell’AI: per Bengio non ci sono serie argomentazioni per sostenere che i rischi prospettati da Hinton siano eccessivi; tuttavia, è necessario non farsi paralizzare dalla paura ma mantenere il dibattito su un piano razionale, cercando delle soluzioni concrete. Il problema andrebbe affrontato a livello normativo, anche se è probabile che la nostra società, per come è organizzata oggi, non sia in grado di emanare leggi e regolamenti a un ritmo in linea con il progresso scientifico, e sarebbe quindi opportuno pensare a nuovi paradigmi.
Rischi dell’AI: quali rimedi sono utilizzabili
A parte gli scenari più catastrofici, i rischi posti dall’AI si stanno già facendo sentire nella nostra società. Basti pensare al problema delle discriminazioni derivanti da decisioni viziate degli algoritmi, o alle questioni legate alla tutela della privacy e della proprietà intellettuale. Con lo sviluppo dei nuovi sistemi vengono quindi studiati anche modi per correggere i bias.
Reinforcement learning from human feedback
Innanzitutto, un ruolo fondamentale è ricoperto dall’intervento umano nel processo di “addestramento” dell’algoritmo. Una tecnica che si fonda su questo è il “reinforcement learning from human feedback”: delle persone fisiche forniscono dei feedback sul fatto che l’output dell’IA sia o meno in linea con l’input fornito e l’algoritmo viene poi riaggiustato sulla base di tali indicazioni. Questo metodo è stato uno degli elementi che hanno reso la chatbot ChatGPT così “brava” a conversare.
Red-teaming
Un altro rimedio per limitare i rischi e i bias dell’AI è il “red-teaming”: il modello viene attaccato da dei soggetti specializzati al fine di prepararlo ai pericoli reali che affronterà una volta messo in circolazione.
Tuttavia, numerosi esempi negli ultimi mesi hanno mostrato come, nonostante questi sistemi, le nuove AI siano del tutto fallibili. Un ulteriore rischio, avendo a che fare con macchine intelligenti, è che imparino a riconoscere e aggirare i test a cui vengono sottoposte in fase di addestramento, rendendo inutili rimedi come il red-teaming.
Constitutional AI
Per questo motivo si comincia a pensare di utilizzare proprio delle AI al fine di controllare le altre AI: una tecnica di questo tipo è la “Constitutional AI” di Sam Bowman, ricercatore della New York University e della società Anthropic, che usa un secondo modello di AI per determinare se il primo rispetta alcuni principi fondamentali. Mentre questo sistema presenta il vantaggio della velocità e del risparmio di lavoratori umani, resta il problema di chi determina quali sono i principi fondamentali e, quindi, della scelta dei valori su cui fondare il funzionamento delle nuove AI. Pensiamo di nuovo alla storia delle graffette: se il principio su cui si basa la macchina è l’efficienza, è ipotizzabile lo sterminio dell’umanità come “effetto collaterale” necessario per raggiungere l’obiettivo.
Il problema è che, in molti casi, il fatto che le AI funzionano come delle black-box rende i vari controlli poco efficaci o, comunque, estremamente difficili da mettere in pratica. Per questo vari ricercatori sostengono che la soluzione, almeno in questa fase, debba essere di tipo giuridico, più che tecnico, con delle regole che costringano le società che producono le AI a internalizzare i costi derivanti da eventuali malfunzionamenti o bias dei loro prodotti.
I vari approcci regolamentari
Da questo punto di vista, vi sono diversi approcci. L’Unione Europea sta adottando un Regolamento che, secondo alcuni, è piuttosto restrittivo. All’opposto abbiamo il Regno Unito, che al momento si limita ad applicare le normative preesistenti anche a questi nuovi sistemi, mentre negli USA l’amministrazione Biden sta cominciando a raccogliere opinioni pubbliche su come creare regole ad hoc.
È chiaro che il ritmo dello sviluppo tecnologico in questo settore mette a dura prova gli strumenti normativi a cui siamo abituati, come stiamo vedendo anche nelle difficoltà di adozione dell’AI Act europeo. Sarebbe auspicabile una regolamentazione elastica e fondata su solidi principi, adattabili alle diverse situazioni concrete che si creeranno in futuro. Geoffrey Hinton, per questo, suggerisce di ispirarsi alla normativa sulle armi chimiche; tuttavia, questo approccio tradisce il pregiudizio di fondo dello scienziato di cui abbiamo parlato sopra (sulle grosse probabilità di esiti catastrofici) e potrebbe limitare fortemente l’innovazione in questo settore.
Conclusioni
Secondo vari esperti, porre un freno allo sviluppo dell’AI, almeno per un certo periodo, non sarebbe affatto una cattiva idea. È ormai famosa la lettera del Future of Life Institute, sottoscritta da luminari del settore che chiedono così una pausa di sei mesi dalla creazione dei sistemi di AI più avanzati.
Tuttavia, sarebbe auspicabile trovare una giusta via di mezzo tra i due diversi approcci: non frenare lo sviluppo scientifico e tecnologico lasciandosi paralizzare dalla paura, ma nemmeno liquidare con troppa leggerezza i timori espressi dagli esperti del settore. Per questo il ruolo dei legislatori, nei prossimi mesi, sarà fondamentale.