GitHub, Microsoft e OpenAI sono al centro di una class action con l’accusa che il loro strumento di codifica basato sull’intelligenza artificiale, Copilot, ha copiato il codice. Depositata presso la Corte distrettuale degli Stati Uniti per il distretto settentrionale della California, la causa di 56 pagine sostiene che Copilot, progettato per completare automaticamente frammenti di codice, “viola le licenze che i programmatori open source hanno scelto e monetizza il loro codice nonostante l’impegno di GitHub di non farlo”.
“L’obiettivo di Copilot è quello di sostituire un’enorme fascia di open source prendendolo e mantenendolo all’interno di un paywall controllato da GitHub”, si legge nella causa.
GitHub è un repository open source di codice informatico che chiunque può utilizzare con attribuzione agli autori. OpenAI è un laboratorio di ricerca AI. Microsoft possiede GitHub e ha una partecipazione in OpenAI. Nel giugno 2021, GitHub e OpenAI hanno lanciato Copilot, un modello di intelligenza artificiale addestrato su linee di codice.
I querelanti, guidati dal programmatore e avvocato Matthew Butterick, sostengono che Copilot riproduce il loro codice protetto da copyright senza attribuire o notificare agli utenti i requisiti di licenza.
Un portavoce di GitHub ha dichiarato: “Ci siamo impegnati a innovare in modo responsabile con Copilot fin dall’inizio e continueremo a far evolvere il prodotto per servire al meglio gli sviluppatori di tutto il mondo”.
In un blog, GitHub afferma di avere una funzione che consente agli sviluppatori di “bloccare i suggerimenti di 150 + caratteri corrispondenti al codice pubblico”, ma riconosce che “non affronta tutti i casi d’uso”.
Nuove funzionalità arriveranno nel 2023, che forniranno agli utenti di Copilot “un inventario di codice simile trovato nei repository pubblici di GitHub” e “la possibilità di ordinare tale inventario per licenza del repository, data di commit, ecc.”
Alan Behr, partner della pratica di proprietà intellettuale presso lo studio legale Phillips Nizer, ha dichiarato che “l’accusa in questo caso è che Copilot è entrato in possesso di codice open source, non ha fornito un’attribuzione corretta e quindi ha monetizzato le sue modifiche al codice. Semplicemente, l’affermazione è che Copilot ha violato i termini delle licenze open source con cui era permesso, gratuitamente, apportare modifiche al codice.
“Questa è una questione molto particolare di diritto contrattuale per quanto riguarda l’uso di codice open source da parte di un’azienda. Sarebbe difficile vedere come ciò possa frenare la crescita dell’AI generativa in generale “, ha aggiunto Behr. “La causa è essenzialmente per violazione delle licenze per il codice open source; semplificando, è come una controversia contrattuale con complicazioni. Suggerirei di non leggervi implicazioni più ampie in questo momento. ”
Danni legali stimati per 9 miliardi di dollari
Butterick ha iniziato a indagare sullo strumento AI il mese scorso dopo che un professore del Texas A & MU ha chiamato Copilot per aver copiato il suo codice senza attribuzione o licenza. La causa sostiene che Copilot “riproduce semplicemente codice che può essere ricondotto a repository open source o licenziatari open source” e “non include mai attribuzioni agli autori sottostanti”.
La causa sostiene che GitHub e OpenAI hanno “offerto account mobili della fonte e della quantità del codice o di altri dati utilizzati per addestrare e gestire Copilot”. Inoltre, gli imputati “hanno anche offerto giustificazioni mutevoli sul perché un prodotto AI commerciale come Copilot dovrebbe essere esentato da questi requisiti di licenza, spesso citando il ‘fair use'”.
I querelanti vogliono un processo con giuria e hanno anche chiesto i danni previsti dalla legge; un risarcimento per danni derivanti dalla violazione delle licenze da parte del convenuto e da concorrenza sleale, più le spese legali.
I querelanti stimano danni legali di almeno 9 miliardi di dollari: 2.500 dollari sostenuti tre volte per ciascuno degli 1,2 milioni di utenti Copilot. Secondo la causa, ogni volta che Copilot manda fuori un codice, incorre nelle tre violazioni di non fornire: attribuzione, avviso di copyright e termini di licenza,