Normative internazionali

Usa: quando a dettare le regole dell’AI sono i giudici

Contrariamente all’Europa, gli Stati Uniti si sono concessi almeno un anno di tempo per varare una legge che regolamenti l’utilizzo dell’intelligenza artificiale. Nel frattempo, è boom di cause per gli avvocati esperti in tecnologie

Pubblicato il 19 Lug 2023

washington

Il 14 luglio, negli Usa la Federal Trade Commission ha aperto un’indagine per verificare se OpenAI abbia violato le leggi sulla protezione dei consumatori, effettuando lo scraping dei dati online delle persone per addestrare il suo chatbot ChatGPT. Nel frattempo, artisti, autori e la società di immagini Getty stanno facendo cause a OpenAI, Stability AI e Meta, sostenendo che hanno violato le leggi sul copyright addestrando i loro modelli sulle loro opere senza fornire alcun riconoscimento o pagamento.

Se questi casi dovessero avere successo, potrebbero costringere OpenAI, Meta, Microsoft e altri a cambiare il modo in cui l’AI viene realizzata, addestrata e utilizzata in modo che sia più giusta ed equa.

Potrebbero anche creare nuovi modi per compensare artisti, autori e altri soggetti per l’utilizzo delle loro opere come dati di addestramento per i modelli di AI, attraverso un sistema di licenze e royalties.

Il ritardo del governo nell’approvare una legge di settore

Il boom dell’AI generativa ha ravvivato l’entusiasmo dei politici americani per l’approvazione di leggi specifiche sull’AI. Tuttavia, è improbabile che una legge di questo tipo venga approvata nel corso del prossimo anno, data la divisione del Congresso e l’intensa attività di lobbying da parte delle aziende tecnologiche, afferma Ben Winters, consulente senior dell’Electronic Privacy Information Center. Anche il tentativo più importante di creare nuove regole sull’AI, il quadro SAFE Innovation del senatore Chuck Schumer, non include alcuna proposta politica specifica.

“Sembra che il percorso più semplice [verso un regolamento sull’IA] sia quello di iniziare con le leggi esistenti”, afferma Sarah Myers West, amministratore delegato dell’AI Now Institute, un gruppo di ricerca. E questo significa azioni legali.

Negli Usa le cause legali sull’AI proliferano

Le leggi esistenti hanno fornito molte munizioni a coloro che sostengono che i loro diritti siano stati lesi dalle aziende di AI.

Nell’ultimo anno, queste aziende sono state colpite da un’ondata di cause legali, la più recente delle quali è stata intentata da Sarah Silverman, la quale sostiene che OpenAI e Meta hanno prelevato illegalmente da Internet il suo materiale protetto da copyright per addestrare i loro modelli. Le sue rivendicazioni sono simili a quelle degli artisti in un’altra class action che sostiene che un popolare software di generazione di immagini per l’intelligenza artificiale ha utilizzato le loro immagini protette da copyright senza consenso. Anche Copilot, lo strumento di programmazione assistita dall’intelligenza artificiale di Microsoft, OpenAI e GitHub, sta affrontando un’azione legale collettiva in cui si sostiene che si basa su una “pirateria software su scala senza precedenti”, poiché viene addestrato su codice di programmazione esistente “estratto” da siti web.

ai cause Usa

L’indagine della FTC

Nel frattempo, la FTC sta indagando se le pratiche di OpenAI in materia di sicurezza dei dati e di privacy siano sleali e ingannevoli e se l’azienda abbia causato danni, anche di reputazione, ai consumatori quando ha addestrato i suoi modelli di intelligenza artificiale. L’azienda ha prove concrete a sostegno delle sue preoccupazioni: OpenAI ha subito una violazione della sicurezza all’inizio di quest’anno, dopo che un bug nel sistema ha causato la fuga della cronologia delle chat e delle informazioni sui pagamenti degli utenti. Inoltre, i modelli linguistici dell’AI spesso producono contenuti imprecisi e inventati, a volte riguardanti le persone.

OpenAI è ottimista riguardo all’indagine della FTC, almeno in pubblico. Contattata per un commento, l’azienda ha condiviso un messaggio su Twitter dell’amministratore delegato Sam Altman, in cui afferma che l’azienda è “fiduciosa di seguire la legge”.

Un’agenzia come la FTC può portare le aziende in tribunale, far rispettare gli standard del settore e introdurre migliori pratiche commerciali, sostiene Marc Rotenberg, presidente e fondatore del Center for AI and Digital Policy (CAIDP), un’organizzazione no-profit. A marzo il CAIDP ha presentato un reclamo alla FTC chiedendo di indagare su OpenAI. Secondo Myers West, l’agenzia ha il potere di creare nuove regole che indichino alle aziende di AI cosa sono o non sono autorizzate a fare.

La FTC potrebbe richiedere a OpenAI di pagare multe o di cancellare tutti i dati ottenuti illegalmente e di eliminare gli algoritmi che hanno utilizzato i dati raccolti illegalmente, afferma Rotenberg. Nel caso più estremo, ChatGPT potrebbe essere messo offline. Esiste un precedente: nel 2022 l’agenzia ha imposto all’azienda dietetica Weight Watchers di cancellare i propri dati e algoritmi dopo aver raccolto illegalmente i dati dei bambini.

Altre agenzie governative potrebbero avviare indagini

Anche altre agenzie governative potrebbero avviare le proprie indagini. Il Consumer Financial Protection Bureau, ad esempio, ha segnalato che sta esaminando l’uso dei chatbot AI nel settore bancario. E se l’AI generativa dovesse giocare un ruolo decisivo nelle prossime elezioni presidenziali statunitensi del 2024, anche la Federal Election Commission potrebbe indagare, afferma Winters.

Nel frattempo, dovremmo iniziare a vedere i risultati delle azioni legali, anche se potrebbero volerci almeno un paio d’anni prima che le class action e le indagini della FTC arrivino in tribunale.

Secondo Mehtab Khan, borsista presso la Yale Law School, specializzato in proprietà intellettuale, governance dei dati ed etica dell’AI, molte delle cause intentate quest’anno saranno respinte perché troppo ampie. Ma hanno comunque una funzione importante. Gli avvocati stanno gettando un’ampia rete e vedono cosa abbocca. Ciò consente di avviare cause giudiziarie più precise che potrebbero indurre le aziende a modificare il modo in cui costruiscono e utilizzano i loro modelli di AI, aggiunge Khan.

Secondo Khan, le cause legali potrebbero anche costringere le aziende a migliorare le pratiche di documentazione dei dati. Al momento, le aziende tecnologiche hanno un’idea molto rudimentale dei dati che entrano nei loro modelli di intelligenza artificiale. Una migliore documentazione di come hanno raccolto e utilizzato i dati potrebbe far emergere eventuali pratiche illegali, ma potrebbe anche aiutarle a difendersi in tribunale.

I giudici arrivano prima dei politici

Non è insolito che le cause legali producano risultati prima che entrino in vigore altre forme di regolamentazione: in effetti, è proprio così che gli Stati Uniti hanno gestito le nuove tecnologie in passato, sostiene Khan.

Il suo approccio differisce da quello di altri Paesi occidentali. Mentre l’UE cerca di prevenire i peggiori danni dell’AI in modo proattivo, l’approccio americano è più reattivo. Gli Stati Uniti aspettano che i danni emergano prima di regolamentare, afferma Amir Ghavi, socio dello studio legale Fried Frank. Ghavi sta rappresentando Stability AI, l’azienda che sta dietro l’AI open-source che genera immagini, Stable Diffusion, in tre cause sul copyright.

“È una posizione pro-capitalista”, afferma Ghavi. “Favorisce l’innovazione. Dà ai creatori e agli inventori la libertà di essere un po’ più audaci nell’immaginare nuove soluzioni”.

Secondo Joseph Saveri, fondatore di uno studio legale specializzato in antitrust e class action, e Matthew Butterick, avvocato, le cause collettive sul diritto d’autore e sulla privacy potrebbero far luce sul funzionamento degli algoritmi di AI “a scatola chiusa” e creare nuovi modi per indennizzare artisti e autori per l’utilizzo delle loro opere nei modelli di AI.

Sono a capo delle cause contro GitHub e Microsoft, OpenAI, Stability AI e Meta. Saveri e Butterick rappresentano Silverman, parte di un gruppo di autori che sostengono che le aziende tecnologiche hanno addestrato i loro modelli linguistici sui loro libri protetti da copyright. I modelli di intelligenza artificiale generativa vengono addestrati utilizzando vaste serie di dati di immagini e testi prelevati da Internet. Questo include inevitabilmente dati protetti da copyright.

“C’è un vuoto in cui non c’è ancora una norma di legge, e noi stiamo portando la legge dove deve andare”, dice Butterick. Se le tecnologie AI oggetto delle cause possono essere nuove, non lo sono le questioni legali che le riguardano, e il team si affida alla “buona vecchia” legge sul copyright, aggiunge Butterick.

I casi del passato: Napster, Apple e Spotify

Butterick e Saveri citano come esempio Napster, il sistema di condivisione di musica peer-to-peer. L’azienda è stata citata in giudizio dalle case discografiche per violazione del diritto d’autore e ha portato a un caso emblematico sul fair use della musica.

L’accordo su Napster ha spianato la strada ad aziende come Apple, Spotify e altre per iniziare a creare nuovi accordi basati sulle licenze, afferma Butterick. La coppia spera che anche le loro azioni legali aprano la strada a una soluzione di licenza in cui artisti, scrittori e altri detentori di diritti d’autore possano essere pagati per l’utilizzo dei loro contenuti in un modello di intelligenza artificiale, in modo simile al sistema in vigore nell’industria musicale per il campionamento delle canzoni. Le aziende dovrebbero inoltre chiedere un’autorizzazione esplicita per l’utilizzo di contenuti protetti da copyright nei set di addestramento.

Le aziende tecnologiche hanno trattato i dati protetti da copyright disponibili pubblicamente su Internet come soggetti al “fair use” (uso corretto) ai sensi della legge sul copyright degli Stati Uniti, che consentirebbe loro di utilizzarli senza chiedere prima l’autorizzazione. I detentori di copyright non sono d’accordo. Le azioni collettive probabilmente determineranno chi ha ragione, dice Ghavi.

Questo è solo l’inizio di un nuovo boom per gli avvocati del settore tecnologico. Gli esperti con cui MIT Technology Review ha parlato concordano sul fatto che le aziende tecnologiche dovranno probabilmente affrontare cause sulla privacy e sui dati biometrici, come le immagini dei volti delle persone o i filmati che le ritraggono mentre parlano. Prisma Labs, l’azienda dietro il popolare programma di avatar AI Lensa, sta già affrontando una causa collettiva per il modo in cui ha raccolto i dati biometrici degli utenti.

Ben Winters ritiene che assisteremo anche a un aumento delle cause sulla responsabilità del prodotto e sulla Sezione 230, che determinerà se le aziende di AI sono responsabili se i loro prodotti si guastano e se devono essere responsabili per i contenuti prodotti dai loro modelli di AI.

“I processi di contenzioso possono essere un oggetto contundente per il cambiamento sociale, ma possono comunque essere molto efficaci”, afferma Saveri. “E nessuno sta facendo pressioni su Matthew [Butterick] o su di me”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3