riflessione

ChatGPT: diritto d’autore sotto attacco. Ecco perché va protetto



Indirizzo copiato

Le AI generative hanno accesso e attingono non soltanto da database pubblici ma anche da contenuti protetti da copyright. La crittografia (militare) potrebbe essere la soluzione tecnologica più adeguata

Pubblicato il 28 feb 2024

Valerio Pastore

Founder e CEO di Cyber Grant



ChatGPT business società

L’intelligenza artificiale, soprattutto nella sua versione di AI generativa, ha un potenziale rivoluzionario. È in grado di trasformare le attività produttive rendendole più efficienti, di migliorarle grazie alla capacità di analisi e catalogazione, di liberare l’uomo da mansioni lavorative noiose e ripetitive consentendogli di focalizzarsi su ruoli più alti e di visione strategica. A fronte di queste opportunità resistono diversi rischi perché l’AI per funzionare deve macinare dati e dunque leggerli e appropriarsene: un potenziale rischio per le libertà e i diritti dell’uomo in molti casi. Casi che l’AI Act appena approvato sta ora indagando. Una pietra miliare che però non basta: non tocca infatti i casi di uso che restano in una terra di nessuno dove gli abusi diventano sempre possibili.

AI Act: perché non basta

L’AI Act, approvato lo scorso 9 dicembre e che dovrebbe entrare in vigore entro due anni, ha un impianto normativo, il primo al mondo di questa portata, che mira a proteggere i diritti le libertà dagli usi controversi di questa straordinaria tecnologia. Di fatto, nell’ambito della legge, i sistemi General Purpose (Gp AI) che includono i Large Language Models (LLM), come ChatGPT, Bard (ora integrato in Gemini) e Midjourney, dovranno essere sottoposte ex ante a regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica.

In sintesi, con l’entrata in vigore della legge, non si potrà usare l’AI per analisi di dati biometrici sensibili (come convinzioni politiche, religiose e razziali). Non sarà possibile fare scraping non mirato di immagini, ovvero sarà vietato raccogliere immagini facciali da Internet o da telecamere a circuito chiuso per creare database di riconoscimento facciale senza specifici obiettivi. La norma vieta anche il social scoring e le tecniche che mirano a manipolare il comportamento umano. E bisognerà guardarsi bene dall’usare l’AI per sfruttare le vulnerabilità delle persone, come l’età, disabilità, situazione sociale o economica. Le forze dell’ordine potranno usare sistemi di riconoscimento biometrico solo in casi eccezionali, come la minaccia terroristica imminente, la ricerca di vittime di gravi crimini, o la persecuzione di reati gravi. Un passo importante che però, come detto, lascia fuori molte questioni. È, per esempio, del tutto esclusa dalla normativa la questione del trading finanziario (eppure le AI sono in grado di manipolare i mercati) e anche il tema del diritto di autore, che viene sistematicamente violato da ChatGPT e simili. Il tema è di strettissima attualità.

Perché proteggere il diritto d’autore dall’AI

Nella documentazione depositata presso il tribunale di New York dalla società editrice del New York Times contro OpenAI si legge che la violazione del diritto d’autore da parte di ChatGPT ha causato “miliardi di dollari in danni statutari e reali” alla società editrice della testata; la documentazione rappresenta ChatGPT e gli altri sistemi di intelligenza artificiale come potenziali competitor nell’industria editoriale: i chatbot possono infatti rispondere su molti argomenti, anche di attualità, basando le loro affermazioni su articoli del New York Times e scoraggiando quindi gli utenti a visitarne il sito.

Il tema è molto sentito anche in Europa. La Federazione degli editori europei (FEP), per esempio, sta lavorando affinché grazie alla regolamentazione si evitino i rischi di “data laundering”. Gli operatori delle intelligenze artificiali dovrebbero infatti garantire l’accesso alla lista dettagliata dei libri e degli articoli utilizzati, specificando le fonti da cui questi contenuti sono stati raccolti.

Un rischio che si fa ancora più attuale nel settore della “creator economy”: mercato fiorente oltreoceano, che Goldman Sachs, Deloitte, Oxford Economics e Adobe  hanno già raccontato e dimensionato attribuendogli un valore di 250 miliardi di dollari (con potenzialità di raddoppio a 480 miliardi entro il 2027) che sta facendo capolino anche nel nostro Paese, per ora ancora abituato ad essere inondato da contenuti gratuiti su Instagram e TikTok.

I content creator oltreoceano stanno già utilizzando le piattaforme social per distribuire contenuti immediatamente monetizzabili senza la loro intermediazione (oltre a Patreon e OnlyFans hanno predisposto modalità di remunerazione immediata anche IG con i Creator Shop, Snapchat con SpotLight e TikTok con FYP) spostando la vendita degli stessi anche su canali paralleli e proprietari direttamente creati e gestiti da loro, inclusi semplici WhatsApp, blog, eshop, email. Se esistono quindi già strumenti che permettono ai creator di monetizzare la relazione con i propri follower – da quelli che regalano una mancia (“buy me a coffee“), a quelli che pagano la newsletter (Substack), a quelli che permettono la vendita di digital download o corsi di formazione (Povia, Gumroad, Converkit, Sendowl) – il grande tema finora è sempre rimasto la protezione degli stessi da copie non autorizzate. Garantire questa protezione significa difendere oltre che il diritto d’autore anche la produzione di valore e potenziali posti di lavori.

Cosa fare per garantire il diritto d’autore

Una strada è certamente la crittografia . Stiamo parlando di tecnologie di criptazione e decriptazione che permettono alle aziende e ai creator di proteggere i contenuti. Quelle attualmente disponibili sul mercato sono però difficili da usare per l’utente finale e impongono barriere all’adozione da parte delle aziende legate anche ai costi e ai settaggi di implementazione. La sfida che il settore cyber ha di fronte (che con Cyber Grant ci siamo sentiti di cogliere), è quella di rendere accessibile le tecniche crittografiche al più vasto pubblico, di individui, organizzazioni e imprese, puntando su interfacce e ux semplici, che in modo intuitivo, attivano i più sofisticati livelli di crittografia su cui si basano, ma che non devono essere di impedimento all’esperienza dell’utilizzatore finale.

La crittografia di livello militare per proteggere il diritto d’autore

La nostra (Filegrant), per esempio, impiega algoritmi di crittografia di livello militare per garantire la massima sicurezza nella condivisione dei file, non solo proteggendo i dati durante la trasmissione ma assicurando anche che i file rimangano cifrati e inaccessibili durante la conservazione su server remoti o che non risultino duplicabili. Sono strumenti che permettono anche di gestire in modo protetto la visualizzazione dei file, impedendo il download del file originale per evitare fughe di dati.

Funzioni particolarmente utili per documenti sensibili che richiedono una visualizzazione sicura senza la possibilità di duplicazione o condivisione non autorizzata. Alcune di queste permettono di utilizzare file cifrati e legalmente firmati come prove di autenticità in sedi assicurative o processuali. La nostra è andata anche oltre, offrendo a creator e aziende, la possibilità di vendere i file cifrati, come ricerche finanziarie, dati scientifici, o consulenze, senza la necessità di sviluppare o mantenere un proprio sistema di e-commerce.

Proteggendo il copyright, diventerà possibile per un creator vendere, anche senza dover affrontare i costi per la creazione di un ecommerce e senza il rischio di veder proliferare copie non autorizzate del proprio lavoro , un tutorial, una videoguida, un libro. Uno studente potrà farsi pagare gli appunti presi a lezione dai colleghi che li chiedono e una beauty consultant potrà farsi remunerare subito per l’acquisto di tutorial di beauty routine con test di creme e rossetti che ha messo in vendita con un link sul suo profilo social.

Ma le stesse tecnologie, utilizzate con API, possono aprire scenari di business nuovi anche per le aziende. La maggior parte degli editori che mettono in vendita studi o ricerche esita a proteggere i documenti che vendono online a causa dei sistemi di DRM complessi e poco intuitivi che finiscono per scoraggiare gli acquisti.

Queste nuove tecnologie che stanno arrivando sul mercato saranno utilizzabili in maniera molto semplice dagli editori permettendo loro di vendere e distribuire contenuti esclusivi ai loro abbonati in modo sicuro proteggendoli efficacemente da copie e condivisioni illecite.

Conclusioni

Nell’era in cui tutto gira intorno ai dati è sempre più evidente che una delle armi più efficienti per la loro protezione è la crittografia. È quasi un dovere, per noi esperti, sviluppare tecnologie che garantiscano la sicurezza nella condivisione delle informazioni, e che lo facciano non attraverso barriere complesse, ma con strumenti intuitivi che si integrano senza attriti nell’esperienza quotidiana dell’utilizzatore finale.

Articoli correlati

Articolo 1 di 2