L’uso di AI generativa sta dando luogo a sempre più numerose cause giudiziarie che ne segnalano la portata dirompente sui diritti e il mercato del lavoro. Il settore artistico è uno dei più colpiti dagli effetti dell’AI generativa; ecco un caso relativo all’uso della voce avvenuto negli Usa.
Il caso Lovo.AI
Due doppiatori americani hanno fatto causa alla società produttrice di Lovo.AI dopo aver scoperto, con sorpresa, che la propria voce era stata utilizzata per generare contenuti sintetici, accusando la società produttrice di vari illeciti relativi all’uso generativo-sintetico delle proprie voci. Il caso, presentato presso la Corte Distrettuale del Sud di New York, cerca di ottenere lo status di un’azione collettiva per includere altre persone che potrebbero aver subito lo stesso destino, ovvero l’utilizzo non autorizzato delle loro voci e identità.
La causa rappresenta l’ultima di una serie di azioni legali intentate contro varie aziende tecnologiche da creativi, scrittori e artisti che lamentano l’uso non autorizzato delle loro opere per l’addestramento di sistemi AI. E risulta uno dei primi a livello mondiale quanto al tema dell’uso della voce. Vediamo di capire di seguito il fenomeno e approfondirne gli aspetti giuridici.
Lo “speakeraggio” al tempo delle intelligenze artificiali
Negli ultimi decenni, la professione dello speakeraggio ha subito una trasformazione radicale grazie ai progressi della tecnologia e, più recentemente, all’emergere di sistemi di intelligenza artificiale. Lo speakeraggio, ossia l’arte di dare vita a testi scritti attraverso la voce, ha radici profonde nella storia della comunicazione umana. Dalla radio al cinema, fino agli audiolibri e alle pubblicità, le voci dei grandi interpreti hanno avuto un impatto indelebile sul pubblico.
Negli Stati Uniti, nomi come quello di Orson Welles, con il suo leggendario adattamento radiofonico de “La guerra dei mondi” del 1938, o Mel Blanc, detto l’”uomo dalle mille voci”, che ha dato vita a personaggi iconici come Bugs Bunny, Daffy Duck, Porky Pig e molti altri personaggi di Warner Bros, o ancora Don LaFontaine, voce narrante di oltre 5.000 trailer cinematografici, tra le più riconoscibili di Hollywood, hanno mostrato il potere della voce umana di coinvolgere e, a volte, sconvolgere l’ascoltatore.
Oggi, con l’avvento dell’AI, la professione si sta evolvendo in modi imprevedibili. Le tecnologie vocali, capaci di imitare alla perfezione le sfumature della voce umana, stanno rivoluzionando settori come l’intrattenimento, il marketing e l’educazione. Le voci sintetiche stanno diventando sempre più realistiche, aprendo nuove possibilità ma anche sollevando, com’è naturale, questioni etiche, professionali e giuridiche.
Alcuni casi di utilizzo di voci sintetiche
Nel documentario “Roadrunner: A Film About Anthony Bourdain”, ad esempio, è stata utilizzata l’AI per replicare la voce del noto chef e scrittore statunitense Anthony Bourdain, scomparso nel 2018, in alcune parti della narrazione. Questo utilizzo, peraltro, ha suscitato un dibattito etico, poiché la voce dell’AI è stata utilizzata senza che il pubblico venisse messo espressamente al corrente del fatto che la voce nel documentario fosse artificiale, creando quindi confusione su ciò che era realmente stato detto da Bourdain.
Nel Film “Top Gun: Maverick” la voce di Val Kilmer, co-star del film cult anni ’80 insieme a Tom Cruise, è stata ricreata tramite AI, in quanto l’attore da tempo ha perso la capacità di parlare a causa di un cancro alla gola. In tal caso, sono state utilizzate registrazioni preesistenti della voce dell’attore per addestrare un modello di AI che potesse farne una replica in modo realistico, permettendo a Kilmer di “parlare” nel film
I progressi raggiunti dall’Intelligenza artificiale sollevano, com’è evidente, importanti questioni etiche e giuridiche riguardanti la trasparenza nell’utilizzo e implementazione dei sistemi, la protezione dei dati personali e, più in generale, i diritti personalissimi e i diritti d’autore.
Caso Lovo.AI: la risposta degli artisti americani ai modelli di AI generativa
Nel contesto sopra descritto si inserisce proprio la vicenda giudiziale citata sopra e che coinvolge due speaker americani, Paul Lehrman e Linnea Sage.
Nel maggio 2024, i due speaker hanno promosso un’azione legale contro Lovo.ai, una società sviluppatrice di modelli AI generativa con sede in California, accusandola di utilizzare le voci di moltissimi autori di voice-over pubblicitari senza il loro consenso per creare milioni di riproduzioni vocali. Il modello di AI sviluppato da Lovo, noto con il nome di “Genny”, sarebbe infatti stato addestrato, secondo le attrici, con migliaia di ore di registrazioni vocali, comprese quelle di Lehrman e Sage.
Le contestazioni che emergono dall’atto introduttivo del procedimento risultano, nello specifico:
- l’utilizzo non autorizzato del loro nome e della loro voce per scopi pubblicitari, in violazione delle sezioni 50 e 51 della New York Civil Rights Law;
- la malafede contrattuale, in violazione della sezione 349 del New York Deceptive Practices Act, in quanto in fase di negoziazione la società avrebbe dichiarato agli autori che sarebbero state utilizzate solo a scopi di ricerca accademica;
- la pubblicità ingannevole, per non aver informato adeguatamente il pubblico circa la provenienza dei voice over e per averlo indotto in errore in merito a una presunta collaborazione commerciale tra i doppiatori e la società;
- l’ingiusto arricchimento proveniente dall’utilizzo delle voci dei due speaker, senza che a questi venga riconosciuto un adeguato compenso per le utilizzazioni in discorso.
Interessante osservare che nella vicenda giudiziale in questione, almeno per quanto riguarda la fase introduttiva, non sono state sollevate particolari contestazioni in tema di violazione del copyright.
Attualmente, infatti, sono diversi i tribunali americani che vedono fronteggiarsi contenti creator, media e editori da una parte, e società sviluppatrici di AI generative dall’altra.
Utilizzo improprio dell’AI generativa: i casi in corso
Il processo “Getty Images contro Stability AI”, avviato nei primi mesi del 2023, è stato probabilmente il primo a portare sotto i riflettori le problematiche giuridiche connesse all’utilizzo di AI generative e allo sfruttamento non autorizzato di opere di ingegno protette dal copyright.
Stability AI è la società sviluppatrice del noto modello di generazione di immagini Stable Diffusion. Nel proprio atto di citazione, Getty Images ha sostenuto, che Stability AI avrebbe utilizzato milioni di immagini protette, provenienti dal suo database, per addestrare il modello senza ottenere le necessarie licenze.
Ancora, Sarah Andersen, Kelly McKernan e Karla Ortiz, tre visual artists americane, hanno presentato una class action contro OpenAI e Stability AI, accusandoli di aver utilizzato le loro opere senza permesso per addestrare i rispettivi modelli di intelligenza artificiale “DALL-E” e il già menzionato “Stable Diffusion”, sollevando tre principali accuse basandosi sul Copyright Act e sul Digital Millennium Copyright Act, noto come DMCA. Le aziende avrebbero utilizzato migliaia di opere protette per addestrare le loro tecnologie, copiandole di fatto senza il permesso dei legittimi proprietari.
L’attrice e comica Sarah Silverman ha citato in giudizio OpenAI e Meta, sostenendo che avrebbero utilizzato il suo libro senza autorizzazione per addestrare modelli di linguaggio come ChatGPT. La Silverman sostiene che l’uso del suo libro violi i suoi diritti d’autore e che le tecnologie sviluppate potrebbero danneggiare il suo potenziale mercato editoriale.
Anche il New York Times ha deciso di entrare nell’arena legale per difendere i propri diritti. La famosa testata giornalistica ha trasformato la sua denuncia in un vero e proprio manifesto, sottolineando l’importanza vitale del giornalismo indipendente per la salute della nostra democrazia. Questo appello si è concretizzato in un atto di citazione che il Times ha depositato contro OpenAI e Microsoft presso il tribunale distrettuale di New York. Il cuore della questione sollevata dal Times è simile a quello argomentato da Sarah Silverman: il successo commerciale dei sistemi di intelligenza artificiale generativa si baserebbe in gran parte sulla violazione del copyright su vasta scala.
Al di fuori dell’arena legale, rilevano poi alcune iniziative intraprese da diverse celebrità, come l’ultima recentemente avviata da oltre 250 musicisti americani, tra cui Katy Perry, Billie Eilish, Pearl Jam, che con una lettera aperta hanno contestato apertamente l’uso irresponsabile dell’AI generativa, atto a sabotare la creatività e indebolire artisti, cantautori, musicisti e detentori dei diritti.
Questi procedimenti legali riflettono le crescenti tensioni tra innovazione tecnologica e protezione dei diritti personalissimi e del diritto d’autore.
La voce umana: tra diritto “personalissimo” e diritto “connesso” al diritto d’autore
La vicenda processuale americana che coinvolge i due speaker ci porta a riflettere sulla tutela giuridica accordata alla voce all’interno dell’ordinamento nazionale ed europeo, che si pone trasversalmente tra i cd. diritti “personalissimi”, i diritti “connessi” e la normativa privacy.
I diritti personalissimi riguardano gli aspetti fondamentali della persona, inclusi il diritto al nome e all’immagine, tutelati, in generale, dall’art. 2 della Costituzione, e, specificatamente, dagli artt. 6-10 del Codice civile e dagli artt. 96-97 della Legge sul diritto d’autore (L 633/1941 e s.m.i. anche abbreviata in “Lda”)
La giurisprudenza è concorde nel ritenere che il diritto di immagine, peraltro, non ricomprenda solamente il ritratto della persona, bensì anche gli elementi non immediatamente riferibili alla stessa quali, ad esempio, l’abbigliamento (caso relativo al personaggio di Totò, Cass Civ. 1997/2223) gli ornamenti (caso relativo al cantautore Lucio Dalla, Tribunale di Roma 18/04/1984) il trucco, e tutto ciò che ha caratteristiche tali da richiamare ed evocare un determinato personaggio, tra cui anche la voce e il timbro vocale, laddove caratteristico e riconoscibile (caso relativo al cantautore Angelo Branduardi, Tribunale di Roma 05/12/1993).
Ancora, la voce assume un’ulteriore tutela nel momento in cui questa diviene lo “strumento” utilizzato dalla persona per rendere le proprie prestazioni artistiche e professioni.
La legge sul diritto d’autore tutela, infatti, ai sensi dell’articolo 80 e ss., soggetti come cantanti, attori, interpreti, doppiatori, che tramite la loro voce contribuiscono primariamente alla realizzazione di contenuti (es. brani musicali, film, registrazioni, pubblicità).
Tali diritti vengono definiti cosiddetti “diritti connessi” al diritto d’autore, ed attribuiscono al titolare, da una parte, la facoltà esclusiva di autorizzare la registrazione, la comunicazione al pubblico e l’utilizzo della propria prestazione artistica da parte di terzi dall’altra, dall’altra, il diritto a percepire un compenso adeguato e proporzionato derivante dall’utilizzo della propria prestazione vocale (cd diritti “secondari”).
Il Regolamento dell’Autorità per le Garanzie nelle Comunicazioni (AgCom)
In tema di diritti connessi rileva peraltro la recente approvazione da parte dell’Autorità per le Garanzie nelle Comunicazioni (AgCom), con delibera n. 95/24/CONS, del Regolamento in materia di obblighi di informazione e adeguamento contrattuale degli autori e degli artisti, nonché di rappresentatività degli organismi di gestione collettiva, che si aggiunge a quelli attuativi degli articoli 43-bis Lda relativo ai diritti sugli articoli giornalistici (delibera n.3/23/CONS) e 102-decies Lda relativo ai meccanismi di reclamo per i contenuti protetti diffusi online (delibera n. 115/23/CONS), a completamento dell’implementazione della Direttiva Copyright dell’Unione Europea (UE 2019/790).
Il Regolamento determina, in particolare, i criteri di rappresentatività degli organismi di gestione collettiva (cd collecting societies) per la negoziazione dei compensi, e definisce le procedure concernenti la determinazione del compenso adeguato e proporzionato (c.d. “equo compenso”), essenzialmente spettante ad autori e artisti per i successivi sfruttamenti delle opere da parte degli utilizzatori, nel caso in cui essi non trovino un accordo economico con le collecting societies che rappresentano autori ed artisti.
Anche gli speaker professionisti le cui voci sentiamo quotidianamente nelle pubblicità godono della tutela di cui sopra, sia per quanto concerne la facoltà esclusiva di autorizzare la registrazione e il successivo utilizzo della loro voce da parte di terzi, sia per quanto concerne il diritto a un compenso adeguato agli sfruttamenti successivi della loro voce. In questo caso, la determinazione del compenso viene in genere affidata alle tariffe proposte dall’ADAP, l’associazione nazionale dei professionisti che danno voce alla pubblicità in televisione, alla radio, su internet, e che collabora, dialoga e interagisce con case di produzione e agenzie pubblicitarie per valorizzare e difendere il mestiere di chi presta la voce alla pubblicità. Tra i criteri adottati per la determinazione e la negoziazione del compenso vi sono, ad esempio, Il periodo di utilizzo del Voice Over, l’ambito territoriale, i canali di comunicazione adottati.
Al netto di quanto sopra, riprendendo la vicenda occorsa negli Stati Uniti, i progressi raggiunti dalle intelligenze artificiali sollevano riflessioni in merito alla tutela delle categorie dei doppiatori, dei cantanti e degli artisti che fanno della voce la loro professione. Sarà interessante osservare se una soluzione perseguibile sarà quella negoziale, ossia l’intavolazione di negoziati tra le associazioni di categoria rappresentative degli artisti e degli speaker, e gli sviluppatori di AI generative che intendono sfruttarne i contributi professionali.
Normativa privacy: legittimo interesse vs. consenso per l’uso della voce
Uno dei fattori che comporta maggiori problemi relativamente all’utilizzo di AI generativa, è la necessità di dati per alimentare e addestrare i modelli. Questi sistemi apprendono, infatti, da vasti set di dati, diventando sempre più precisi e affidabili nel tempo. Quando queste informazioni rientrano nella definizione di dati personali, entra in gioco la normativa sulla protezione dei dati personali che nel quadro giuridico europeo è rappresentata dal GDPR.
Per garantire la liceità del trattamento dei dati personali effettuato tramite sistemi di AI, è necessario condurre un’attenta analisi della finalità perseguita per identificare la corretta base giuridica che legittima tale trattamento. Nel caso di Lovo, ad esempio, si possono individuare principalmente due finalità di trattamento, sulla base delle informazioni fornite dalla stessa società: addestramento del sistema AI, registrazione della voce per finalità di ricerca accademica.
In merito alla finalità di ricerca accademica, secondo la ricostruzione fatta nell’atto di citazione, i doppiatori avrebbero registrato la loro voce per adempiere ad un obbligo contrattuale per cui hanno ottenuto infatti un compenso (art. 6, paragrafo 1, lett. b).
La normativa italiana
In riferimento all’addestramento dei sistemi di AI, in Italia vi è stata una lunga discussione riguardo alla base giuridica adeguata su cui fondare tale trattamento. Ad esempio, l’Autorità Garante per la protezione dei dati personali in Italia, mediante il provvedimento n. 114 del 11 aprile 2023, ha considerato insufficiente la base giuridica del contratto per l’addestramento di sistemi di IA. Di conseguenza, le opzioni sembravano limitarsi alla richiesta del consenso degli utenti o alla giustificazione basata sul legittimo interesse (art. 6, paragrafo 1, lett. f).
Tuttavia, nel caso si opti per il legittimo interesse, il titolare del trattamento è tenuto a effettuare un bilanciamento degli interessi in gioco, valutando i benefici del trattamento dei dati personali contro la necessità di proteggere gli interessi, i diritti e le libertà degli interessati.
In ogni caso, la discussione non dovrebbe limitarsi a questi due approcci in quanto il GDPR definisce altre basi giuridiche che legittimano il trattamento di dati personali e che, pertanto, devono essere considerate.
La trasparenza come requisito necessario per l’utilizzo etico dell’AI
Il caso di Lovo.IA mette in evidenza la necessità – nonché uno degli obiettivi primari perseguiti dal sistema giuridico europeo in tema di AI – di garantire la trasparenza nell’uso e nella progettazione dei sistemi di intelligenza artificiale.
La trasparenza non solo è fondamentale per mantenere la fiducia degli utenti, ma è anche un requisito imprescindibile per la protezione dei diritti degli individui, inclusi i diritti d’autore e per la protezione dei dati personali.
La trasparenza nei sistemi di AI implica che gli utenti siano pienamente informati su come i loro dati vengono raccolti, utilizzati e gestiti. In particolare, è essenziale che gli utenti siano consapevoli delle fonti dei dati, delle modalità di addestramento degli algoritmi, delle finalità del trattamento dei dati e delle implicazioni di tale utilizzo. Nel contesto giuridico europeo, queste esigenze sono delineate nel Regolamento sulla protezione dei dati personali (UE) 679/2016 (GDPR) e dal Regolamento europeo sull’intelligenza artificiale (AI Act).
Quando si tratta di trattamenti automatizzati di dati personali, come quelli eseguiti dai software di intelligenza artificiale, il GDPR impone un livello di trasparenza ancora più rigoroso. Partendo dagli articoli 13(2)(f) e 14(2)(g) del GDPR, il titolare del trattamento deve fornire informazioni sulla logica dei processi decisionali automatizzati, l’importanza di tali processi e le loro conseguenze per gli interessati. In pratica, si richiede che il titolare del trattamento sia proattivo nel fornire spiegazioni sulla logica degli algoritmi, giustificando come gli input vengono trasformati in output, soprattutto quando il sistema di AI è in grado di prendere delle decisioni che incidono sugli interessati.
Il ruolo dell’AI Act
In tale scenario, si inserisce l’AI Act, che individua un quadro normativo volto a garantire un uso responsabile, etico e affidabile dei sistemi AI. Uno degli aspetti centrali dell’AI Act è, infatti, l’insieme di obblighi di trasparenza che ricadono in capo ai fornitori dei sistemi di AI.
In particolare, il Regolamento prevede che gli utilizzatori di sistemi di AI che generano o manipolano immagini, contenuti audio o video che sembrano autentici ma sono falsi debbano chiaramente indicare che il contenuto è stato generato o manipolato artificialmente. Questa disposizione potrebbe ad esempio rispondere, seppur in parte, a preoccupazioni simili a quelle sollevate nel caso di Lovo.ai, garantendo che tutte le parti coinvolte siano informate e che possano agire secondo quanto ritengono più opportuno.
Conclusioni
Il recente caso di Lovo.AI ha evidenziato come l’utilizzo della voce di un artista per l’addestramento di modelli di AI generativa, la creazione di clip audio generati da AI utilizzando la voce del performer, la distribuzione di tali clip senza autorizzazione, sono attività che non solo possono pregiudicare i diritti connessi spettanti a doppiatori, cantanti e interpreti, ma che potrebbero portare all’abbandono della professione da parte di molti artisti, non solo nell’ambito dello speakeraggio.
Per affrontare queste problematiche, è essenziale garantire un uso etico e trasparente delle tecnologie di AI attraverso un approccio basato sul rischio. Tradizionalmente, la valutazione dei rischi era incentrata su due livelli: quello tecnico, che si occupa della sicurezza informatica dei sistemi di AI, e quello legale, che riguarda la conformità di tali sistemi alle normative esistenti. Tuttavia, l’utilizzo di sistemi di AI che potrebbero impattare significativamente sui diritti fondamentali dei consociati richiede un focus particolare su un ulteriore aspetto: quello etico.
Pertanto, è cruciale associare l’uso dell’AI a una valutazione incentrata sull’identificazione e mitigazione dei rischi etici legati allo sviluppo e utilizzo delle tecnologie di IA. L’ethical impact assessment diventa quindi cruciale in questo contesto. In particolare, questo tipo di valutazione si concentra sull’identificazione e mitigazione dei rischi etici associati all’uso delle tecnologie di AI includendo considerazioni sulla privacy, consenso, trasparenza, equità e sul rispetto dei diritti umani. Implementare una valutazione dell’impatto etico significa garantire che le tecnologie di AI siano sviluppate e utilizzate in modo che rispettino la dignità e i diritti degli individui coinvolti.
Il caso Lovo AI dimostra, in conclusione, l’urgente necessità di esaminare i modelli generativi e le loro applicazioni attraverso la lente dei valori, dei principi e dei diritti fondamentali, per migliorare le interazioni future e promuovere i benefici sociali di tali sistemi.