News

AI, le big tech pressano il governo britannico per accelerare i test di sicurezza



Indirizzo copiato

OpenAI, Google DeepMind, Microsoft e Meta si sono impegnate a modificare i loro modelli qualora l’istituto AISI riscontri difetti nella tecnologia, ma ora cercano chiarezza sulla durata e sui metodi dei test

Pubblicato il 7 feb 2024



Londra

Le grandi aziende mondiali di intelligenza artificiale, tra cui OpenAI, Google DeepMind, Microsoft e Meta, stanno sollecitando il governo britannico ad accelerare i test di sicurezza sui sistemi AI. Il Regno Unito, infatti, vorrebbe assumere un ruolo guida nella regolamentazione di questa tecnologia in rapido sviluppo. Le grandi aziende tecnologiche hanno firmato impegni volontari lo scorso novembre per sottoporre i loro più recenti modelli generativi di intelligenza artificiale alla revisione del nuovo istituto per la sicurezza dell’AI del Regno Unito (AISI). In quel momento, si erano impegnate a modificare i loro modelli qualora l’istituto avesse riscontrato difetti nella tecnologia.

Tuttavia, fonti vicine alle aziende tecnologiche sostengono che esse non sono legalmente obbligate a modificare o ritardare il lancio dei loro prodotti sulla base dei risultati dei test di sicurezza dell’AISI. Allo stesso tempo, vogliono chiarezza sui test che l’AISI sta conducendo, sulla durata prevista e sul processo di feedback nel caso vengano identificati rischi.

I limiti degli accordi volontari in un settore tecnologico in rapida evoluzione

Ian Hogarth, presidente dell’AISI e della Foundation Taskforce, ha dichiarato su LinkedIn: “Le aziende hanno concordato che i governi dovrebbero testare i loro modelli prima che vengano rilasciati: l’Istituto per la Sicurezza dell’IA sta mettendo in pratica questo principio”. Il governo britannico ha confermato al Financial Times che “i test sui modelli sono già in corso, lavorando a stretto contatto con gli sviluppatori”. Il contrasto con le aziende tecnologiche evidenzia i limiti dell’affidamento a accordi volontari per definire i parametri di un settore tecnologico in rapida evoluzione.

Di recente, il governo ha sottolineato la necessità di “requisiti vincolanti futuri” per i principali sviluppatori di AI, al fine di garantire che siano responsabili della sicurezza dei sistemi. L’Istituto per la Sicurezza dell’AI, sostenuto dal governo britannico, è fondamentale per l’ambizione del Primo Ministro Rishi Sunak di far sì che il Regno Unito assuma un ruolo centrale nel gestire i rischi esistenziali derivanti dall’ascesa dell’intelligenza artificiale. L’AISI ha già iniziato a testare modelli AI esistenti e ha accesso a modelli ancora non rilasciati, tra cui Gemini Ultra di Google. I test si sono concentrati sui rischi associati all’abuso dell’AI, tra cui la sicurezza informatica.

1 milione di sterline per testare jailbreaking e spear-phishing

Recentemente, contratti governativi pubblicati mostrano che l’AISI ha investito 1 milione di sterline nell’acquisizione di capacità per testare il “jailbreaking“, ovvero la formulazione di sollecitazioni per indurre chatbot AI a eludere le loro protezioni, e lo “spear-phishing“, quando individui e organizzazioni vengono presi di mira per rubare informazioni sensibili o diffondere malware.

Google DeepMind ha dichiarato: “L’Istituto per la Sicurezza dell’AI del Regno Unito ha accesso ad alcuni dei nostri modelli più avanzati per scopi di ricerca e sicurezza, al fine di costruire competenze e capacità a lungo termine. Apprezziamo la nostra collaborazione con l’istituto e stiamo lavorando attivamente insieme per costruire valutazioni più robuste per i modelli AI”. OpenAI e Meta hanno preferito non commentare.

Articoli correlati

Articolo 1 di 2