Normative

Le aziende di AI vogliono fermare le norme di sicurezza della California



Indirizzo copiato

L’industria sostiene che un disegno di legge in corso di approvazione presso la legislatura statale rallenterebbe l’innovazione per la nuova tecnologia

Pubblicato il 14 ago 2024




La California è diventata il punto focale nella lotta per la regolamentazione dell’intelligenza artificiale. Le start-up di AI e i giganti della tecnologia si stanno mobilitando per fermare un disegno di legge in fase di approvazione presso la legislatura statale che, secondo loro, imporrebbe vincoli impossibilmente vaghi in nome della sicurezza. Sebbene alcuni nel settore abbiano chiesto una regolamentazione governativa, affermano che dovrebbe essere fatta a livello federale con maggiore specificità.

Il disegno di legge è ampiamente considerato cruciale per come la tecnologia sarà regolamentata negli Stati Uniti, poiché la California ospita molte aziende di AI e spesso ha un effetto sproporzionato sulle leggi in altri stati. Le proposte per regolamentare l’AI a livello nazionale hanno fatto pochi progressi a Washington.

Cosa prescrive il disegno di legge SB 1047

Il disegno di legge della California, chiamato SB 1047, richiede che gli sviluppatori di grandi modelli di AI conducano test di sicurezza per ridurre i rischi di “danno catastrofico” derivanti dalla loro tecnologia, che definisce come attacchi informatici che causano almeno 500 milioni di dollari di danni. Gli sviluppatori devono anche garantire che la loro AI possa essere disattivata da un essere umano se inizia a comportarsi in modo pericoloso.

Il disegno di legge si applica ai modelli di AI che raggiungono una certa soglia di potenza di calcolo e costano più di 100 milioni di dollari per essere addestrati, il costo stimato per addestrare GPT-4 di OpenAI. Il provvedimento tocca qualsiasi azienda che operi in California, indipendentemente da dove ha sede.

SB 1047 è stato approvato dal Senato della California e da due commissioni dell’Assemblea dello stato con poca opposizione. Gli oppositori sperano di impedirne l’approvazione da parte dell’intera Assemblea ora che la legislatura controllata dai Democratici è tornata in sessione questa settimana. L’ufficio del governatore democratico Gavin Newsom non ha risposto alla domanda se firmerebbe il disegno di legge se venisse approvato.

Il parere negativo delle industrie

“Se dovesse entrare in vigore così com’è scritto, avrebbe un effetto di congelamento sull’innovazione in California,” ha detto Luther Lowe, capo delle politiche pubbliche presso l’acceleratore di start-up Y Combinator, che ha svolto un ruolo di primo piano negli sforzi di lobbying contro il disegno di legge.

Anche Meta Platforms e OpenAI hanno sollevato preoccupazioni riguardo a SB 1047, mentre Google, Microsoft e Anthropic hanno proposto corpose modifiche.

Scott Wiener, un senatore democratico dello stato di San Francisco che ha redatto il disegno di legge, ha detto che sta dialogando con l’industria tecnologica ed è aperto a cambiamenti. “Ci sono persone nel settore tecnologico che si oppongono a qualsiasi forma di regolamentazione, qualunque essa sia, anche per qualcosa di ragionevole e leggero,” ha detto.

Le altre leggi sull’AI negli Usa

Colorado e Utah hanno recentemente approvato alcune delle prime leggi del paese sulla regolamentazione dell’AI, ma sono più limitate rispetto a SB 1047 della California. Circa 400 disegni di legge relativi all’AI sono attualmente nelle legislature statali degli Stati Uniti, secondo la Transparency Coalition, un’organizzazione no-profit che sostiene la regolamentazione dei dati su cui vengono addestrati i modelli di AI. Circa 30 disegni di legge sono in varie fasi nella legislatura della California, con obiettivi che vanno dalla protezione dei diritti di proprietà intellettuale all’espansione della definizione di pornografia infantile per includere immagini generate dall’AI.

SB 1047 ha ricevuto una forte opposizione da parte dell’industria. Il disegno di legge rispecchierebbe un quadro di test di sicurezza che OpenAI, Anthropic e altre aziende di AI hanno adottato volontariamente l’anno scorso. Gli oppositori affermano che il disegno di legge non specifica quali dovrebbero essere quei test o chi farebbe parte di una nuova commissione che dovrebbe supervisionare la conformità.

“Elementi fondamentali che dovrebbero sostenere l’architettura regolamentare del disegno di legge non sono ancora in atto, rischiando investimenti mal riposti, risultati fuorvianti e un’opportunità mancata di concentrare le risorse,” ha affermato Microsoft in una lettera che delinea le sue obiezioni al disegno di legge.

Un’altra preoccupazione per gli oppositori è il divieto del disegno di legge di rilasciare grandi modelli di AI “se c’è un rischio irragionevole” che possano “causare o permettere un danno critico.”

“Questo standard vago crea un campo minato legale,” ha detto Anjney Midha, partner della società di venture capital Andreessen Horowitz che si concentra sull’AI. “La tecnologia attuale semplicemente non può garantire contro questi scenari ipotetici.”

Midha ha detto che il disegno di legge scoraggerebbe i grandi sviluppatori dal rendere i loro modelli disponibili al pubblico, frammentando un ecosistema di start-up che si basa su tale apertura per innovare.

Wiener ha detto che il disegno di legge codifica solo gli standard di sicurezza che l’industria ha stabilito da sola. “Non è eccessivamente prescrittivo,” ha detto.

I sostenitori della SB 1047

Diversi ricercatori di scienze informatiche e studiosi di diritto, tra cui Geoffrey Hinton e Yoshua Bengio, che hanno sviluppato gran parte della tecnologia su cui si basa l’attuale ondata di AI generativa, hanno co-firmato una lettera a Newsom a sostegno della SB 1047. “Sarebbe un errore storico eliminare le misure di base di questo disegno di legge, un errore che diventerà ancora più evidente entro un anno quando verrà rilasciata la prossima generazione di sistemi di AI ancora più capaci,” dice la lettera.

Wiener ha difeso il suo disegno di legge in una stanza piena di fondatori di start-up e ricercatori di AI presso la sede di Y Combinator a San Francisco alla fine di luglio. “Ci sono state significative esagerazioni riguardo alla scala della responsabilità per gli sviluppatori di modelli,” ha detto al pubblico, inclusa una falsa voce secondo cui gli sviluppatori andrebbero in prigione se un attore malintenzionato utilizzasse in modo improprio la loro tecnologia.

Tuttavia, molti sembravano non essere convinti. “Ci sono clausole lì dentro che, onestamente come sviluppatore di AI, non ho idea di cosa servano,” ha detto Andrew Ng, professore di informatica presso la Stanford University, che ha co-fondato il team di ricerca sul deep learning di Google.

Articoli correlati

Articolo 1 di 4