Regolamentazione

I maggiori scienziati dell’AI chiedono ai governi “protezioni contro i rischi catastrofici”



Indirizzo copiato

Il team, riunitosi a Venezia, il 16 settembre ha rilasciato una dichiarazione in cui si richiede un’autorità internazionale per supervisionare l’intelligenza artificiale. Tra gli scienziati firmatari del documento figurano Joshua Bengio, Andrew Yao e Geoffrey Hinton

Pubblicato il 17 set 2024



AI modelli di ragionamento

Un gruppo formato dai maggiori scienziati nel campo dell’intelligenza artificiale lancia l’allarme: è necessario creare un sistema globale di supervisione per controllare i potenziali rischi gravi posti da questa tecnologia in rapido sviluppo. In una dichiarazione rilasciata il 16 settembre, un gruppo di influenti scienziati dell’AI ha espresso preoccupazioni sul fatto che la tecnologia che hanno contribuito a costruire potrebbe causare gravi danni. L’AI potrebbe, nel giro di pochi anni, superare le capacità dei suoi creatori e “la perdita del controllo umano o l’uso malevolo di questi sistemi di AI potrebbe portare a esiti catastrofici per tutta l’umanità”.

Stuart Russell, Andrew Yao, Yoshua Bengio e Ya-Qin Zhang

Tra i firmatari della dichiarazione ci sono scienziati provenienti da Stati Uniti, Cina, Gran Bretagna, Singapore, Canada e altri paesi. Tra questi, Yoshua Bengio, spesso definito uno dei padri fondatori del campo, Andrew Yao, il cui corso alla Tsinghua University di Pechino ha formato i fondatori di molte delle principali aziende tecnologiche cinesi, e Geoffrey Hinton, uno scienziato pioniere che ha lavorato per un decennio a Google.

Il terzo incontro dei Dialoghi Internazionali sulla sicurezza dell’AI

Gillian Hadfield (fonte: University of Toronto)

Gillian Hadfield è una studiosa di diritto e professoressa di informatica e governo alla Johns Hopkins University e ritiene che se oggi i sistemi di AI, in qualsiasi parte del mondo, sviluppassero queste capacità, non esisterebbe un piano per contenerli. “Se avessimo una sorta di catastrofe tra sei mesi, se rilevassimo che ci sono modelli che stanno iniziando a migliorarsi autonomamente, chi chiameresti?” ha dichiarato.

Dal 5 all’8 settembre, la Hadfield si è riunita insieme a scienziati di tutto il mondo a Venezia per discutere di un piano in tal senso. Si è trattato del terzo incontro dei Dialoghi Internazionali sulla sicurezza dell’AI, organizzato dal Safe AI Forum, un progetto di un gruppo di ricerca senza scopo di lucro negli Stati Uniti chiamato Far.AI.

Il gruppo di scienziati ha proposto che i paesi istituiscano autorità per la sicurezza dell’AI per registrare i sistemi di AI all’interno dei loro confini. Le autorità lavorerebbero poi insieme per concordare una serie di linee rosse e segnali di allarme, ad esempio se un sistema di AI tentasse di replicarsi o di ingannare intenzionalmente i suoi creatori. Tutto ciò sarebbe coordinato da un organismo internazionale.

Il gruppo includeva anche scienziati di diverse istituzioni di ricerca cinesi di primo piano, alcune delle quali sono finanziate dallo stato e consigliano il governo. Alcuni ex funzionari governativi hanno partecipato, tra cui Fu Ying, ex funzionario del ministero degli Esteri cinese e diplomatico, e Mary Robinson, ex presidente dell’Irlanda.

All’inizio di quest’anno, il gruppo si è riunito a Pechino. L’ultimo incontro si è svolto in un edificio di proprietà del filantropo miliardario Nicolas Berggruen. Il presidente del think tank Berggruen Institute, Dawn Nakagawa, ha partecipato all’incontro e ha firmato la dichiarazione.

Le tre proposte chiave contenute nella dichiarazione

La discussione ha portato a una dichiarazione di consenso che delinea tre proposte chiave:

  • Preparazione alle emergenze: gli esperti partecipanti hanno sottolineato la necessità di essere preparati ai rischi derivanti dall’AI avanzata che potrebbero emergere in qualsiasi momento. I partecipanti hanno concordato sul fatto che i sistemi di AI altamente capaci saranno probabilmente sviluppati nei prossimi decenni e potrebbero essere sviluppati nell’immediato. Per affrontare questo problema urgente, hanno proposto accordi internazionali di preparazione alle emergenze.

Attraverso questi accordi, le autorità nazionali preposte alla sicurezza dell’AI si riunirebbero, collaborerebbero e si impegnerebbero a implementare modelli di registrazione e divulgazione, segnalazione di incidenti, fili d’inciampo e piani di emergenza. Questa proposta riconosce la possibilità che rischi significativi derivanti dall’IA avanzata emergano rapidamente e inaspettatamente, rendendo necessaria una risposta coordinata a livello globale.

  • Garanzia di sicurezza: per garantire che le linee rosse concordate non vengano oltrepassate, la dichiarazione è a favore di un quadro completo di garanzia della sicurezza. In questo quadro, le autorità nazionali per la sicurezza dell’AI dovrebbero richiedere agli sviluppatori di presentare casi di sicurezza ad alta affidabilità prima di distribuire modelli le cui capacità superino soglie specifiche. Anche il monitoraggio successivo al dispiegamento dovrebbe essere una componente chiave della garanzia per i sistemi di AI altamente capaci, man mano che vengono adottati su larga scala. È importante che queste garanzie di sicurezza siano soggette a verifiche indipendenti, aggiungendo un ulteriore livello di controllo e responsabilità al processo.
  • Ricerca sulla sicurezza e sulla verifica: i partecipanti hanno sottolineato che la comunità di ricerca deve sviluppare tecniche che consentano agli Stati di verificare rigorosamente che le affermazioni sulla sicurezza delle AI fatte dagli sviluppatori, e potenzialmente da altri Stati, siano vere e valide. Per garantire l’indipendenza e la credibilità di questa ricerca, hanno sottolineato che dovrebbe essere condotta a livello globale e finanziata da un’ampia gamma di governi e filantropi. Questo approccio mira a creare un quadro solido e imparziale per valutare e convalidare le misure di sicurezza dell’AI su scala internazionale.

Clicca qui per leggere il documento integrale

Rari momenti di confronto fra scienziati cinesi e occidentali

Questi incontri rappresentano un raro momento di confronto tra scienziati cinesi e occidentali in un periodo in cui Stati Uniti e Cina sono impegnati in una competizione tesa per la supremazia tecnologica. Negli ultimi mesi, le aziende cinesi hanno presentato tecnologie che rivaleggiano con i principali sistemi di AI americani.

Gli scienziati che si sono riuniti a Venezia ritengono che le loro conversazioni siano importanti perché lo scambio scientifico sta diminuendo, schiacciato dalla competizione tra le due superpotenze geopolitiche.

Yoshua Bengio (fonte: Google Scholar)

Yoshua Bengio, uno dei membri fondatori del gruppo, ha citato come esempio i colloqui tra scienziati americani e sovietici durante il culmine della Guerra Fredda, che contribuirono a coordinare gli sforzi per evitare una catastrofe nucleare. In entrambi i casi, gli scienziati coinvolti si sentirono obbligati a contribuire a richiudere il vaso di Pandora aperto dalle loro ricerche.

Articoli correlati

Articolo 1 di 3