normative

Accordo storico UK-USA sulla sicurezza dell’AI



Indirizzo copiato

L’intesa raggiunta permette a enti di ricerca di entrambi i paesi di condividere competenze e lavorare sulla valutazione indipendente dei modelli di AI privati

Pubblicato il 2 apr 2024



washington

Stati Uniti e Regno Unito hanno siglato un accordo storico sulla sicurezza dell’intelligenza artificiale, diventando i primi paesi a cooperare formalmente su come testare e valutare i rischi derivanti dai nuovi modelli di AI. L’accordo, firmato il 1 aprile 2024 a Washington dal ministro britannico della scienza Michelle Donelan e dal segretario al commercio statunitense Gina Raimondo, stabilisce come i due governi condivideranno conoscenze tecniche, informazioni e talento sulla sicurezza dell’AI. Questo accordo rappresenta il primo arrangiamento bilaterale sulla sicurezza dell’AI nel mondo e arriva in un momento in cui i governi stanno spingendo per una maggiore regolamentazione dei rischi esistenziali derivanti dalle nuove tecnologie, come ad esempio il loro utilizzo in attacchi informatici dannosi o nella progettazione di armi biologiche.

La prossima generazione di modelli AI è in arrivo

“Il prossimo anno dovremo davvero agire rapidamente perché è in arrivo la prossima generazione di modelli [di AI], che potrebbero essere dei veri e propri cambiamenti di gioco, e non conosciamo ancora le piena capacità che offriranno”, ha dichiarato Donelan al Financial Times.

L’accordo permetterà specificamente al nuovo Istituto di Sicurezza dell’AI del Regno Unito (AISI), istituito a novembre, e al suo equivalente statunitense, che deve ancora iniziare il suo lavoro, di scambiarsi competenze attraverso distacchi di ricercatori da entrambi i paesi. Gli istituti lavoreranno anche insieme su come valutare in modo indipendente i modelli privati di AI costruiti da aziende come OpenAI e Google. La partnership è modellata su quella tra il Quartier Generale delle Comunicazioni del Governo del Regno Unito (GCHQ) e l’Agenzia per la Sicurezza Nazionale degli Stati Uniti, che collaborano strettamente su questioni relative all’intelligence e alla sicurezza. “Il fatto che gli Stati Uniti, una grande potenza dell’AI, stiano firmando questo accordo con noi, il Regno Unito, dimostra quanto stiamo guidando la strada sulla sicurezza dell’AI”, ha detto Donelan. Aggiungendo che, dato che molte delle aziende di AI più avanzate sono attualmente basate negli Stati Uniti, l’esperienza del governo americano è fondamentale sia per comprendere i rischi dell’AI, sia per far rispettare agli imprenditori i loro impegni.

President Joe Biden

Tuttavia, Donelan ha insistito sul fatto che nonostante la ricerca sulla sicurezza dell’AI e l’assicurazione che siano in atto delle misure di sicurezza, il Regno Unito non prevede di regolamentare più ampiamente la tecnologia nel prossimo futuro poiché si sta evolvendo troppo rapidamente. Questa posizione contrasta con quella di altre nazioni e regioni.

L’UE ha approvato il suo AI Act, considerato il regime più severo sull’utilizzo dell’AI al mondo. Il presidente degli Stati Uniti, Joe Biden, ha emesso un ordine esecutivo mirato ai modelli di AI che potrebbero minacciare la sicurezza nazionale. La Cina ha emesso linee guida per garantire che la tecnologia non sfidi il suo regime di censura.

Una maggiore comprensione dei sistemi di AI

Raimondo ha affermato che l’AI è “la tecnologia definitoria della nostra generazione”. “Questa partnership accelererà il lavoro dei nostri istituti su tutto lo spettro dei rischi, sia per la nostra sicurezza nazionale sia per la nostra società più ampia”, ha detto. “La nostra partnership rende chiaro che non stiamo scappando da queste preoccupazioni – le stiamo affrontando. Grazie alla nostra collaborazione, i nostri istituti avranno una migliore comprensione dei sistemi di AI, condurranno valutazioni più robuste e forniranno indicazioni più rigorose.”

L’AISI, sostenuto dal governo britannico e presieduto dall’investitore tecnologico e imprenditore Ian Hogarth, ha assunto ricercatori come Geoffrey Irving di Google DeepMind e Chris Summerfield dell’Università di Oxford per iniziare a testare modelli esistenti e non ancora rilasciati di AI. OpenAI, Google DeepMind, Microsoft e Meta sono tra i gruppi tecnologici che hanno firmato impegni volontari per aprire i loro ultimi modelli generativi di AI alla revisione dell’AISI britannico, istituito in seguito al Summit sulla Sicurezza dell’AI del Regno Unito a Bletchley Park.

L’istituto è fondamentale per l’ambizione del Primo ministro Rishi Sunak di far sì che il Regno Unito abbia un ruolo centrale nello sviluppo dell’AI. I test si sono concentrati sui rischi associati all’abuso della tecnologia, compresa la sicurezza informatica, facendo leva sull’esperienza del Centro Nazionale per la Sicurezza Informatica all’interno del GCHQ, secondo una persona con conoscenza diretta della questione.

Donelan ha dichiarato che lei e Raimondo prevedono di discutere sfide condivise, come l’impatto dell’AI sulle prossime elezioni di quest’anno. Il ministro della scienza ha aggiunto che discuteranno anche della necessità di un’infrastruttura informatica per l’AI “condividendo le nostre competenze e come possiamo approfondire la nostra collaborazione in generale per ottenere benefici per il pubblico”.

La Casa Bianca svela le linee guida per un uso sicuro, protetto e responsabile dell’AI

La vicepresidente Kamala Harris ha annunciato tre nuovi requisiti vincolanti per le agenzie federali: esse devono aderire a nuovi standard quando si tratta di proteggere i diritti e la sicurezza quando si tratta di intelligenza artificiale.

Le agenzie federali sono tenute a promuovere l’uso sicuro, protetto e responsabile dell’AI. Questi standard rispettano la politica inaugurale a livello governativo dell’Office of Management and Budget della Casa Bianca, volta a mitigare i rischi dell’AI massimizzandone i benefici.

L’annuncio si basa sulla presentazione di novembre di Harris all’AI Safety Summit di Londra, dove ha delineato una visione di come l’AI verrà utilizzata in futuro per promuovere l’interesse pubblico ed è una componente fondamentale dello storico AI Executive Order del presidente Biden. 

Le tre norme sull’AI per le agenzie federali

La prima delle tre nuove norme si concentra sulla protezione dei diritti e della sicurezza. Le agenzie governative saranno ora tenute a verificare che gli strumenti di intelligenza artificiale utilizzati non mettano in pericolo i diritti e la sicurezza dei cittadini.

“Vi farò un esempio”, ha detto Harris ai giornalisti in una conferenza stampa. “Se l’Amministrazione dei Veterani vuole utilizzare l’AI negli ospedali per aiutare i medici a diagnosticare i pazienti, dovrebbe prima dimostrare che l’AI non produce diagnosi basate su pregiudizi razziali”.

La trasparenza è il fulcro del secondo requisito, garantendo che tutti abbiano il diritto di sapere quando e come il governo sta utilizzando l’AI e che viene utilizzata in modo responsabile.

“E vogliamo farlo in un modo che renda i leader responsabili dell’uso responsabile dell’AI. La trasparenza spesso, e crediamo, dovrebbe facilitare la responsabilità”, ha detto Harris.

Le agenzie governative saranno ora obbligate a divulgare annualmente online i sistemi di AI che stanno utilizzando, insieme a una valutazione dei potenziali rischi posti da questi sistemi e delle misure in atto per gestire tali rischi.

Il terzo requisito impone alle agenzie federali di designare un chief AI officer per supervisionare tutte le tecnologie di AI utilizzate da ciascuna agenzia.

“E questo per assicurarci che l’AI sia utilizzata in modo responsabile, comprendendo che dobbiamo avere leader senior in tutto il nostro governo che hanno il compito specifico di supervisionare l’adozione e l’uso dell’AI”, ha detto Harris.

Harris ha espresso la speranza sua e del presidente Biden che queste politiche costituiscano un precedente per l’azione globale.

Articoli correlati

Articolo 1 di 4