Negli Usa, il governo federale stenta a sfornare una legislazione sull’intelligenza artificiale, ma i singoli Stati si stanno muovendo. A maggio, i legislatori della California hanno promosso circa 30 nuove misure sull’intelligenza artificiale volte a proteggere i consumatori e i posti di lavoro, uno degli sforzi più significativi fatti fino ad ora per regolamentare questa nuova tecnologia.
Cosa dicono i disegni di legge della California
I disegni di legge chiedono le restrizioni più severe del paese sull’AI, che alcuni esperti di tecnologia avvertono potrebbe eliminare intere categorie di lavori, gettare le elezioni nel caos con la disinformazione e rappresentare rischi per la sicurezza nazionale. Le proposte californiane, molte delle quali hanno ottenuto un ampio sostegno, includono regole per prevenire che gli strumenti AI discriminino nei servizi abitativi e sanitari. Mirano inoltre a proteggere la proprietà intellettuale e i posti di lavoro. Il legislatore californiano, che dovrebbe votare le leggi proposte entro il 31 agosto, ha già contribuito a modellare le protezioni dei consumatori tech negli Stati Uniti. Lo Stato ha approvato una legge sulla privacy nel 2020 che limitava la raccolta dei dati degli utenti e nel 2022 ha approvato una legge sulla sicurezza dei minori che creava salvaguardie per coloro che hanno meno di 18 anni.
“Dato che la California ha giurisdizione con la privacy, il governo federale non agirà, quindi riteniamo che sia fondamentale che noi in California proteggiamo i nostri cittadini”, ha dichiarato Rebecca Bauer-Kahan, membro dell’assemblea democratica che presiede il Comitato sulla Privacy e Protezione dei Consumatori dell’Assemblea dello Stato. Mentre i legislatori federali ritardano la regolamentazione dell’AI, i legislatori statali si sono inseriti nel vuoto con una serie di disegni di legge pronti a diventare de facto regolamenti per tutti gli americani. Le leggi tech come quelle della California spesso stabiliscono un precedente per la nazione, in gran parte perché i legislatori di tutto il paese sanno che può essere difficile per le aziende rispettare un mosaico attraverso le linee statali. I legislatori statali di tutto il paese hanno proposto quasi 400 nuove leggi sull’AI negli ultimi mesi, secondo il gruppo di lobbying TechNet. La California guida gli stati con un totale di 50 disegni di legge proposti, anche se quel numero si è ridotto man mano che procede la sessione legislativa.
Approvare leggi negli Stati è più facile
Il Colorado ha recentemente promulgato una completa legge sulla protezione dei consumatori che richiede alle aziende AI di usare “ragionevole cura” nello sviluppo della tecnologia per evitare discriminazioni, tra le altre questioni. A marzo, la legislatura del Tennessee ha approvato l’ELVIS Act (Ensuring Likeness Voice and Image Security Act), che protegge i musicisti dall’uso della loro voce e somiglianze in contenuti generati da AI senza il loro esplicito consenso.
“È più facile approvare legislazioni in molti Stati rispetto a livello federale”, afferma Matt Perault, direttore esecutivo del Center on Technology Policy presso l’Università della Carolina del Nord a Chapel Hill.
Quaranta stati ora hanno governi in cui sia l’ufficio del legislatore, sia l’ufficio del governatore, sono gestiti dallo stesso partito – il numero più alto dal 1991.
“Stiamo ancora aspettando di vedere quali proposte diventeranno effettivamente legge, ma l’enorme numero di disegni di legge sull’AI introdotti in stati come la California mostra quanto i legislatori siano interessati a questo argomento”, sostiene Perault.
E le proposte statali stanno avendo un effetto domino a livello globale, sostiene Victoria Espinel, amministratrice delegata della Business Software Alliance, un gruppo di lobbying che rappresenta grandi aziende software. “I paesi di tutto il mondo stanno guardando a queste bozze per idee che possono influenzare le loro decisioni sulle leggi sull’AI”, conclude.
Le proposte di legge federali non passeranno quest’anno
I legislatori statunitensi hanno tenuto diverse audizioni per indagare sul potenziale della tecnologia di sostituire i lavoratori, violare i diritti d’autore e persino minacciare l’esistenza umana.
L’amministratore delegato di OpenAI, Sam Altman, ha testimoniato davanti al Congresso e ha chiesto regolamenti federali circa un anno fa. Poco dopo, Sundar Pichai, amministratore delegato di Google; Mark Zuckerberg, amministratore delegato di Meta ed Elon Musk, amministratore delegato di Tesla, si sono riuniti a Washington per un forum sull’intelligenza artificiale ospitato dal leader della maggioranza al Senato, Chuck Schumer, democratico di New York. I leader tecnologici hanno messo in guardia dai rischi che i loro prodotti presentavano e hanno chiesto al Congresso di creare guardrail. Hanno anche chiesto sostegno per la ricerca nazionale sull’intelligenza artificiale per garantire che gli Stati Uniti possano mantenere il loro vantaggio nello sviluppo della tecnologia.
At the time, Mr. Schumer and other U.S. lawmakers said they wouldn’t repeat past mistakes of failing to rein in emerging technology before it became harmful.
A maggio, Schumer ha introdotto una road map per la regolamentazione dell’intelligenza artificiale che proponeva 38 miliardi di dollari di investimenti, ma pochi guardrail specifici sulla tecnologia a breve termine. Quest’anno, i legislatori federali hanno introdotto disegni di legge per creare un’agenzia per supervisionare le normative sull’intelligenza artificiale, proposte per reprimere la disinformazione generata dall’intelligenza artificiale e leggi sulla privacy per i modelli di intelligenza artificiale.
Ma la maggior parte degli esperti di politica tecnologica afferma di non aspettarsi che le proposte federali passino quest’anno.
“Chiaramente c’è bisogno di una legislazione federale armonizzata”, afferma Michael Karanicolas, direttore esecutivo dell’Institute for Technology, Law and Policy presso l’Università della California, Los Angeles.
State and global regulators have rushed to fill the gap. In March, the European Union adopted the AI Act, a law that curbs law enforcement’s use of tools that can discriminate, like facial recognition software.
The surge of state A.I. legislation has touched off a fierce lobbying effort by tech companies against the proposals. That effort is particularly pronounced in Sacramento, the California capital, where nearly every tech lobbying group has expanded its staff to lobby the Legislature.
I 30 disegni di legge che sono stati approvati dal Senato o dall’Assemblea andranno ora a varie commissioni per un ulteriore esame prima che la legislatura concluda la sua sessione alla fine dell’estate. I democratici controllano l’Assemblea, il Senato e l’ufficio del governatore.
“Siamo in una posizione unica perché siamo la quarta economia più grande del pianeta e dove si trovano così tanti innovatori tecnologici”, ha detto Josh Lowenthal, membro dell’Assemblea e democratico, che ha presentato un disegno di legge volto a proteggere i giovani online. “Di conseguenza, ci si aspetta che siamo leader e ci aspettiamo lo stesso da noi stessi”.
Three of those bills are designed to protect actors and singers, living or dead.
SAG-AFTRA, il sindacato degli attori e di altri creatori, ha contribuito a scrivere un disegno di legge che richiederebbe agli studios di ottenere il consenso esplicito degli attori per l’uso delle loro repliche digitali. Il sindacato ha affermato che il pubblico ha espresso un forte sostegno per la protezione della proprietà intellettuale dopo conflitti di alto profilo tra attori e società di intelligenza artificiale.
La California, importante banco di prova
La California è un importante banco di prova perché “la legislatura tende ad essere progressista e crede fortemente nella protezione dei consumatori e nei diritti dei lavoratori”, ha affermato Duncan Crabtree Ireland, capo negoziatore strategico e creativo per SAG-AFTRA. “Ma è anche il luogo in cui hanno sede cinque delle sei più grandi aziende di intelligenza artificiale del mondo”.
Il disegno di legge che sta guadagnando più terreno richiede test di sicurezza delle future versioni di modelli di intelligenza artificiale generativa come il chatbot GPT4 di OpenAI e il creatore di immagini DALL-E, che possono generare scritte simili a quelle umane o video e immagini stranamente realistici. Il disegno di legge, presentato dal senatore Scott Wiener, un democratico, conferisce anche al procuratore generale dello Stato il potere di citare in giudizio per danni ai consumatori.
L’8 maggio, la Camera di Commercio della California e i gruppi di pressione tecnologica hanno scritto una lettera ai membri del comitato per gli stanziamenti che stavano esaminando il disegno di legge. La lettera descriveva la proposta come “vaga e impraticabile”, affermando che avrebbe creato “una significativa incertezza normativa” che avrebbe scoraggiato l’innovazione.
Chamber of Progress, a tech trade group with lobbyists in California, has also criticized the bill. It issued a report last month that noted the state’s dependence on tech business and their tax revenue, which total around $20 billion annually.
“Non regolamentiamo eccessivamente un’industria che si trova principalmente in California, ma non deve esserlo, soprattutto quando stiamo parlando di un deficit di bilancio qui”, ha detto Dylan Hoffman, direttore esecutivo per la California e il sud-ovest di TechNet, in un’intervista.
Wiener sostiene che il suo disegno di legge sui test di sicurezza sarà probabilmente modificato nelle prossime settimane per includere disposizioni che supportino una maggiore trasparenza nello sviluppo della tecnologia di intelligenza artificiale e per limitare i test solo ai sistemi più grandi in cui le aziende hanno investito più di 100 milioni di dollari per sviluppare. Ha sottolineato che molti nel settore tecnologico hanno sostenuto il disegno di legge. “Preferirei che il Congresso agisse, ma non sono ottimista sul fatto che lo farà”, ha aggiunto.