Si è svolta a Londra la conferenza “AI Safety Summit”, un evento di rilevanza internazionale, incentrato sull’intelligenza artificiale, convocato dal Primo Ministro del Regno Unito, Rishi Sunak, con l’obiettivo di delineare una strategia comune per i prossimi cinque anni riguardante le opportunità e le sfide poste da questa tecnologia emergente.
Il summit si è tenuto a Bletchley Park, storico centro di decodifica dei messaggi criptati durante la Seconda guerra mondiale e attuale museo dedicato ad Alan Turing. Il 1° novembre è stata sottoscritta la “Dichiarazione di Bletchley” per lo sviluppo “sicuro” dell’intelligenza artificiale da parte dell’UE, degli Stati Uniti, della Cina e del Regno Unito insieme ad altri Paesi (in tutto sono 29). Questa dichiarazione storica rappresenta il primo documento globale firmato su questo argomento. Inoltre, è la prima volta che la Cina accetta di collaborare con gli Stati Uniti, l’Unione Europea e altri Paesi per gestire collettivamente i rischi derivanti dall’intelligenza artificiale.
Wu Zhaohui, viceministro cinese della scienza e della tecnologia, ha dichiarato alla sessione di apertura del vertice di due giorni che Pechino è pronta ad aumentare la collaborazione sulla sicurezza dell’AI per contribuire a costruire un “quadro di governance” internazionale. “I Paesi, a prescindere dalle loro dimensioni e dalla loro scala, hanno gli stessi diritti di sviluppare e utilizzare l’AI”, ha dichiarato.
Il ministro britannico per il digitale Michelle Donelan ha dichiarato che è stato un successo riunire così tanti attori chiave in una sola stanza. Ha annunciato altri due vertici sulla sicurezza dell’intelligenza artificiale, uno che si terrà in Corea del Sud tra sei mesi e un altro in Francia sei mesi dopo.
“Per la prima volta, i Paesi sono d’accordo sulla necessità di esaminare i rischi legati all’IA di frontiera non solo in modo indipendente, ma anche collettivamente”, ha dichiarato Donelan ai giornalisti.
Cosa dice la Dichiarazione di Bletchley
La dichiarazione è stata sottoscritta da Australia, Brasile, Canada, Cile, Cina, Unione Europea, Francia, Germania, India, Indonesia, Irlanda, Israele, Italia, Giappone, Kenya, Regno dell’Arabia Saudita, Paesi Bassi, Nigeria, Filippine, Repubblica di Corea, Ruanda, Singapore, Spagna, Svizzera, Turchia, Ucraina, Emirati Arabi Uniti, Regno Unito di Gran Bretagna e Irlanda del Nord, Stati Uniti d’America e definisce un’agenda su due fronti, incentrata sull’identificazione dei rischi di interesse comune e sulla loro comprensione scientifica, nonché sullo sviluppo di politiche transnazionali per mitigarli.
- Individuare i rischi per la sicurezza dell’AI che destano preoccupazione condivisa, costruire una comprensione scientifica e basata su dati concreti di tali rischi e sostenere tale comprensione man mano che le capacità continuano ad aumentare, nel contesto di un approccio globale più ampio alla comprensione dell’impatto dell’AI nelle nostre società.
- Costruire le rispettive politiche basate sul rischio in tutti i nostri paesi per garantire la sicurezza alla luce di tali rischi, collaborando in modo appropriato e riconoscendo che i nostri approcci possono differire in base alle circostanze nazionali e ai quadri giuridici applicabili. Ciò include, oltre a una maggiore trasparenza da parte degli attori privati che sviluppano capacità di AI di frontiera, metriche di valutazione adeguate, strumenti per i test di sicurezza e lo sviluppo di capacità pertinenti del settore pubblico e della ricerca scientifica.
I rischi “alla frontiera dell’AI”
“Particolari rischi per la sicurezza sorgono alla ‘frontiera’ dell’AI – si legge nel documento – intesa come quei modelli di AI generici altamente capaci, compresi i modelli di base, che potrebbero svolgere un’ampia varietà di compiti, nonché un’AI ristretta specifica pertinente che potrebbe presentare capacità che causano danni, che corrispondono o superano le capacità presenti nei modelli più avanzati di oggi. Rischi sostanziali possono derivare da un potenziale uso improprio intenzionale o da problemi non intenzionali di controllo relativi all’allineamento con l’intento umano. Questi problemi sono in parte dovuti al fatto che tali capacità non sono pienamente comprese e sono quindi difficili da prevedere”.
“Affermiamo che, sebbene la sicurezza debba essere considerata in tutto il ciclo di vita dell’AI – si legge ancora nel documento -, gli attori che sviluppano capacità di AI di frontiera, in particolare quei sistemi di AI che sono insolitamente potenti e potenzialmente dannosi, hanno una responsabilità particolarmente forte nel garantire la sicurezza di questi sistemi di AI, anche attraverso sistemi per test di sicurezza, valutazioni e altre misure appropriate. Incoraggiamo tutti gli attori interessati a fornire trasparenza e responsabilità adeguate al contesto sui loro piani per misurare, monitorare e mitigare le capacità potenzialmente dannose e gli effetti associati che possono emergere, in particolare per prevenire l’uso improprio e i problemi di controllo e l’amplificazione di altri rischi”.
Per un commento alla Dichiarazione di Bletchley.
Gli ospiti eccellenti dell’AI Safety Summit
Tra gli ospiti c’erano anche alcuni fra i grandi innovatori della Silicon Valley, come Sam Altman, il padre di ChatGPT, ed Elon Musk. Quest’ultimo ha sostenuto la necessità di un “arbitro” indipendente in grado di monitorare l’evoluzione dell’intelligenza artificiale, che considera una delle più grandi minacce potenziali per l’umanità. “Non so quali siano necessariamente le regole giuste, ma bisogna iniziare con l’intuizione prima di fare la supervisione”, ha dichiarato Musk ai giornalisti, aggiungendo che si potrebbe usare un “arbitro terzo” per dare l’allarme quando si sviluppano dei rischi.
Mustafa Suleyman, cofondatore di Google Deepmind, ha dichiarato ai giornalisti di non ritenere che gli attuali modelli di frontiera dell’AI comportino “danni catastrofici significativi”, ma ha detto che ha senso pianificare il futuro mentre l’industria addestra modelli sempre più grandi.
Nella prima giornata dell’AI Safety Summit è arrivato anche un videomessaggio di re Carlo III che ha sottolineato l’importanza dello sviluppo dell’intelligenza artificiale paragonandolo alla scoperta dell’elettricità. Ha inoltre ribadito la necessità di coinvolgere governi, società civile e settore privato per gestire i rischi associati a questa tecnologia. Il Regno Unito invita gli altri Stati ad adottare collettivamente un rapporto sullo stato della scienza per comprendere le capacità e i rischi di questa nuova frontiera tecnologica.
La presenza italiana nella seconda giornata dell’AI Safety Summit
Il Presidente del Consiglio, Giorgia Meloni, si è incontrata il 2 novembre con il Primo Ministro del Regno Unito, Rishi Sunak, a margine del’AI Safety Summit di Bletchley Park. I due capi di governo hanno discusso delle principali tematiche bilaterali e internazionali. Il presidente Meloni ha confermato che l’Intelligenza artificiale sarà uno dei temi al centro della Presidenza italiana del G7 del prossimo anno.
“Sono lieta di annunciare oggi che durante il G7 terremo a Roma una Conferenza internazionale su intelligenza artificiale e Lavoro – ha dichiarato Meloni -, alla quale vorremmo partecipassero studiosi, manager ed esperti di tutto il mondo che avranno l’opportunità di discutere metodi, iniziative e linee guida per garantire che l’AI aiuti e non sostituisca chi lavora, migliorandone invece le condizioni e le prospettive. Altrimenti rischiamo che con lo sviluppo di un’intelligenza artificiale senza regole, sempre più persone non siano necessarie nel mercato del lavoro, con conseguenze pesantissime sulla equa distribuzione della ricchezza. Il nostro obiettivo, insomma, è garantire un’AI che promuova lo sviluppo e l’inclusione invece che la disoccupazione e l’emarginazione. Non è una sfida facile – ha concluso il Presidente del Consiglio – ma siamo pronti come sempre a fare la nostra parte senza esitazioni”.
Presente anche il ministro delle Imprese e del Made in Italy, Adolfo Urso, che ha partecipato alle riunioni dedicate ai rischi derivanti dal cattivo uso dei modelli di AI e alle azioni dei policymaker volte alla relativa mitigazione.
“Per governare il fenomeno dell’AI”, ha dichiarato nel suo intervento il ministro Urso, “occorre prevedere, come ha fatto il presidente USA Biden e come sta avvenendo in ambito UE, normative vincolanti sui sistemi complessi che assicurino un’adeguata analisi preventiva dei rischi e di possibili attività di mitigazione, l’individuazione delle responsabilità degli attori coinvolti, il rispetto della proprietà intellettuale e della privacy”.
Il discorso finale del primo ministro britannico Rishi Sunak
Il summit si è concluso con il discorso della presidenza britannica. Il primo ministro, Rishi Sunak, ha dichiarato:
“Una strategia seria per la sicurezza dell’IA deve iniziare con il coinvolgimento di tutte le principali potenze mondiali dell’IA. E tutti loro hanno firmato il Comunicato di Bletchley Park. In secondo luogo, dobbiamo garantire che la nostra comprensione condivisa tenga il passo con la rapida diffusione e sviluppo dell’IA. Ecco perché, la scorsa settimana ho proposto a un gruppo di esperti veramente globale di pubblicare un rapporto sullo stato della scienza dell’IA. Oggi, in occasione di questo vertice, l’intera comunità internazionale si è trovata d’accordo. Questa idea si ispira al modo in cui è stato istituito il Gruppo intergovernativo di esperti sul cambiamento climatico per raggiungere il consenso scientifico internazionale”.