Normative

Regolamentazione: negli Usa ancora incerte le prospettive di una legislazione ampia sull’AI



Indirizzo copiato

Le prime leggi federali sono state promulgate nel corso degli ultimi Congressi, come legislazione autonoma e come disposizioni e clausole inserite in atti più ampi. Particolare menzione merita il National Artificial Intelligence Initiative Act del 2020 (H.R. 6216), che ha istituito un’iniziativa americana sull’AI e fornito orientamenti sulla ricerca, lo sviluppo e le attività di valutazione presso le agenzie scientifiche federali

Pubblicato il 8 mar 2024



washington

Nonostante gli sforzi per regolamentare l’intelligenza artificiale si intensifichino sia a livello globale che negli Stati Uniti, prospettive di una legislazione ampia approvata dal Congresso rimangono incerte. Nell’ottobre 2023, il Presidente Biden ha emanato un ordine esecutivo di vasta portata sulla sicurezza e l’affidabilità dell’AI. Un passo positivo, ma la sua attuazione sarà una sfida. Dal “think thank” del Parlamento europeo abbiamo tratto questo articolo scritto da Marcin Szczepański

Il panorama attuale delle politiche globali sull’intelligenza artificiale

Secondo il Global AI Legislation Tracker del settembre 2023, “i paesi di tutto il mondo stanno progettando e implementando legislazioni sulla governance dell’AI proporzionate alla velocità e alla varietà delle tecnologie alimentate dall’AI in rapida diffusione. Gli sforzi legislativi includono lo sviluppo di legislazioni complete, leggi focalizzate su casi d’uso specifici e linee guida e standard volontari”.

La Stanford University ha segnalato un enorme aumento nel numero di paesi con leggi che contengono il termine ‘AI’, passando da 25 paesi nel 2022 a 127 nel 2023. Mentre queste singole giurisdizioni, tra cui l’UE, avanzano con i loro propri quadri e approcci, si intensificano anche gli sforzi multilaterali per coordinarli, sia attraverso l’adozione dei principi dell’AI dell’Organizzazione per la Cooperazione e lo Sviluppo Economico, sia attraverso discussioni presso le Nazioni Unite e il G7.

Il Centre for Strategic & International Studies spiega che in sostanza queste leggi e linee guida unilaterali e multilaterali si concentrano sulla necessità di “bilanciare il potenziale rischio dei sistemi AI con il rischio di perdere i benefici economici e sociali che la nuova tecnologia può portare”.

Sviluppo della legislazione sull’AI negli Stati Uniti

In questo contesto, anche gli Stati Uniti hanno intrapreso passi per regolamentare l’AI. Le prime leggi federali sono state promulgate nel corso degli ultimi Congressi, sia come legislazione autonoma sia come disposizioni e clausole relative all’AI inserite in atti più ampi. Merita una particolare menzione il National Artificial Intelligence Initiative Act del 2020 (H.R. 6216), che ha istituito un’iniziativa americana sull’AI e fornito orientamenti sulla ricerca, lo sviluppo e le attività di valutazione dell’IA presso le agenzie scientifiche federali. Altri atti hanno obbligato determinate agenzie a guidare programmi e politiche sull’AI in tutto il governo federale – come l’AI in Government Act (H.R. 2575) e l’Advancing American AI Act (S.1353).

In totale, nel 117° Congresso sono stati introdotti almeno 75 disegni di legge incentrati sull’AI o su disposizioni correlate. Sei di questi sono stati promulgati. Il 118° Congresso, a giugno 2023, aveva introdotto almeno 40 disegni di legge pertinenti all’AI, nessuno dei quali è stato promulgato. In totale, dal 2015 sono state approvate nove leggi.

Nel novembre 2023, ben 33 proposte legislative erano ancora in attesa di considerazione da parte dei legislatori statunitensi. Nel gennaio 2023 l’Ufficio della Casa Bianca per la Politica e la Tecnologia ha pubblicato il suo “Progetto per una Carta dei Diritti dell’AI” e l’Istituto Nazionale di Standard e Tecnologia (NIST) ha rilasciato un “Quadro di Gestione del Rischio AI”.

ai usa

Nell’estate del 2023 sono stati annunciati altri due ampi quadri politici, il SAFE Innovation Framework for AI Policy e il Blumental & Hawley Comprehensive AI Framework, alla ricerca di un sostegno bipartisan, per guidare il Congresso nello sviluppo di future legislazioni sull’AI. Inoltre, nell’aprile del 2023 – in una dichiarazione congiunta – quattro agenzie federali hanno sottolineato che i loro poteri di enforcement si applicano all’AI e che la tecnologia avanzata non dovrebbe essere una scusa per violare la legge.

A livello statale, la Stanford University segnala che, tra il 2016 e il 2022, 14 stati hanno approvato leggi relative all’AI: Maryland è in testa con sette leggi sull’AI, seguita dalla California con sei e dal Massachusetts e Washington con cinque.

L’ordine esecutivo del Presidente Biden sull’AI

President Joe Biden (Official White House Photo)

In un ambiente legislativo sempre più denso, il Presidente degli Stati Uniti Joe Biden ha emanato un ordine esecutivo (EO) sulla “Sicurezza, Affidabilità e Sviluppo dell’AI” il 30 ottobre 2023. Questo si basa su lavori precedenti, come un EO che indirizza le agenzie a combattere la discriminazione algoritmica e l’ottenimento di impegni volontari da parte delle principali aziende statunitensi (come Amazon, Google, Meta, Microsoft e OpenAI) per guidare lo sviluppo sicuro, affidabile e degno di fiducia dell’AI.

Le reazioni all’ordine esecutivo di Biden

La maggior parte degli osservatori ha caratterizzato l’EO con termini come “storico” e “ampio”. Un sondaggio tra i sostenitori sia democratici che repubblicani ha rivelato un forte sostegno bipartisan per le sue principali disposizioni. Sebbene alcuni commentatori abbiano anche elogiato il “raro esempio di consenso bipartisan al Capitol Hill”, l’EO non è sfuggito alle critiche dei repubblicani per la mancanza di un “approccio leggero e guidato dal mercato”, che pone “oneri regolamentari che potrebbero ostacolare lo sviluppo della tecnologia” e si basa su un calendario improbabile.

Al contrario, i democratici hanno elogiato l’ambizioso ambito dell’EO. Il Center for Strategic and International Studies (CSIS) vede l’EO come una conferma che gli Stati Uniti non seguiranno la classificazione dei rischi dell’UE incorporata nell’AI Act. Il CSIS vede anche un limite a ciò che un EO può raggiungere a meno che il Congresso non approvi una legislazione ampia, cosa che ritiene improbabile. Valuta che, a differenza dell’UE, l’esito più probabile nei prossimi anni sia “un mosaico dal basso verso l’alto di azioni del ramo esecutivo”.

La Brookings Institution ritiene che l’EO invii un forte segnale alla comunità internazionale sul fatto che gli Stati Uniti stanno finalmente prendendo una posizione sull’AI. Sostiene, tuttavia, che una legislazione sulla privacy dei dati è necessaria per creare un’AI efficace e resiliente. L’industria ha accolto in gran parte l’EO, con alcune riserve riguardo alla sua pesantezza. Molti esperti lo considerano un buon primo passo che comporta importanti sfide di attuazione.

Cooperazione fra Usa e Ue sull’AI

L’UE e gli Stati Uniti cooperano sull’AI nell’ambito del Consiglio per il Commercio e la Tecnologia (TTC). Stanno implementando una roadmap congiunta su strumenti di valutazione e gestione del rischio per un’AI affidabile. I gruppi di esperti del TTC hanno elencato 65 termini chiave dell’AI essenziali per comprendere gli approcci basati sul rischio all’AI, accompagnati dalle loro interpretazioni UE e USA e dalle definizioni condivise UE-USA. Hanno anche mappato il coinvolgimento rispettivo sia dell’UE che degli Stati Uniti nelle attività di standardizzazione, con l’obiettivo di identificare gli standard relativi all’AI di reciproco interesse. Stanno compilando un catalogo dei rischi esistenti ed emergenti, compresa la comprensione delle sfide poste dall’AI generativa. Nel gennaio 2023, l’UE e gli Stati Uniti hanno firmato un accordo amministrativo su “AI for the Public Good”, volto a potenziare la collaborazione nella ricerca sull’AI.


Articoli correlati

Articolo 1 di 2