Il presidente Usa, Joe Biden, è pronto a firmare il primo memorandum di sicurezza nazionale che definisce come il Pentagono e le agenzie di intelligence dovrebbero utilizzare e proteggere la tecnologia dell’intelligenza artificiale. Questo documento stabilisce delle “barriere di sicurezza” (“guardrail”) su come tali strumenti possono essere impiegati in decisioni critiche, come quelle relative alle armi nucleari o alla concessione dell’asilo.
La nuova direttiva, che verrà annunciata al National War College, rappresenta un passo significativo nel tentativo di gestire le sfide poste dall’uso dell’AI per accelerare le operazioni governative, pur limitando le possibilità più distopiche.
Mancano linee guida su come utilizzare l’AI
Jake Sullivan, consigliere per la sicurezza nazionale, sottolineerà durante l’annuncio che una delle principali sfide è che il governo degli Stati Uniti possiede o finanzia pochissime delle tecnologie chiave dell’AI, che evolvono così rapidamente da sfidare la regolamentazione.
“Dobbiamo farlo bene, perché probabilmente non c’è nessun’altra tecnologia che sarà più critica per la nostra sicurezza nazionale negli anni a venire”, ha detto Jake Sullivan in un discorso alla National Defense University di Washington.
“Dobbiamo essere più veloci nell’implementazione dell’intelligenza artificiale e della nostra impresa di sicurezza nazionale di quanto lo siano i rivali dell’America nella loro”, ha ribadito. “Se non implementiamo l’intelligenza artificiale in modo più rapido e completo per rafforzare la nostra sicurezza nazionale, rischiamo di sprecare il nostro vantaggio duramente guadagnato”.
Mentre il Dipartimento della Difesa e altre agenzie hanno finanziato una parte significativa del lavoro sull’AI nel XX secolo, il settore privato ha spinto gran parte dei progressi dell’ultimo decennio. La mancanza di linee guida su come l’AI possa essere utilizzata sta ostacolando lo sviluppo, poiché le aziende sono preoccupate per le applicazioni che potrebbero essere legali.
La direttiva è l’ultima mossa dell’amministrazione del presidente degli Stati Uniti Biden per affrontare il problema dell’intelligenza artificiale, poiché gli sforzi del Congresso per regolamentare la tecnologia emergente sono in fase di stallo.
Il mese prossimo Biden convocherà un vertice globale sulla sicurezza a San Francisco; l’anno scorso ha firmato un ordine esecutivo volto a limitare i rischi che l’AI pone ai consumatori, ai lavoratori, ai gruppi minoritari e alla sicurezza nazionale.
Il memorandum: regolamentazione e collaborazione internazionale
Il memorandum esclude, ad esempio, che i sistemi di AI possano decidere quando lanciare armi nucleari, lasciando tale decisione al presidente come comandante in capo. Questa dichiarazione esplicita fa parte di uno sforzo per coinvolgere la Cina in discussioni più approfondite sui limiti da imporre alle applicazioni ad alto rischio dell’intelligenza artificiale. Tuttavia, le regole per le armi non nucleari sono meno chiare, e si incoraggia a mantenere i decisori umani nel processo decisionale, specialmente se Russia e Cina iniziano a utilizzare armi completamente autonome.
La protezione delle innovazioni del settore privato
Una parte importante dell’ordine è il trattamento dei progressi dell’AI del settore privato come beni nazionali da proteggere, simili alle prime armi nucleari, da spionaggio o furto da parte di avversari stranieri. L’ordine invita le agenzie di intelligence a proteggere il lavoro sui modelli linguistici di grandi dimensioni e sui chip utilizzati per il loro sviluppo come “tesori nazionali”. Inoltre, si descrivono gli sforzi per attrarre i migliori specialisti di AI da tutto il mondo negli Stati Uniti, per evitare che lavorino per rivali come la Russia.