Il provvedimento del Garante Privacy su ChatGPT ha letteralmente sollevato un vespaio. Si dividono su barricate opposte giuristi e accademici a favore, e politici, economisti e imprenditori contrari che temono che l’Italia segua le orme di Russia, Cina e Nord Corea, non certo campioni di tutela della privacy. Il dibattito è infuocato, tanto da rischiare di far perdere di vista i fatti e la sostanza di quanto stia effettivamente accadendo.
Il Garante italiano della Privacy ha imposto, con effetto immediato, il blocco del trattamento dei dati degli utenti italiani, oltre ad avviare un’istruttoria nei confronti di OpenAI. Le motivazioni sono soprattutto dovute alla mancanza di un’informativa e alla lacuna di una base giuridica per la raccolta dei dati al fine dell’addestramento dell’intelligenza artificiale.
OpenAI ha risposto all’intervento del Garante italiano, bloccando in forma cautelativa il servizio ChatGPT in Italia, per evitare di incorrere nelle salate sanzioni delle eventuali violazioni del GDPR.
Ma, anche se l’intervento dell’Authority indipendente non impedisce affatto di usare la tecnologia innovativa sottostante, ancora utilizzabile da tutti (per esempio su Microsoft Bing), il dibattito ferve in Rete e sui media come se l’Italia fosse diventata all’improvviso un Paese “talebano” pronto a vietare l’innovazione digitale. L’Italia non brilla purtroppo nell’Indice Desi ed è in ritardo sulla banda ultra larga, ma questo nulla c’entra con il provvedimento del Garante. “In linea di principio, un’azione del genere è possibile anche in Germania”, ha dichiarato al quotidiano Handelsblatt Ulrich Kelber, Commissario tedesco per la protezione dei dati. Secondo il Financial Times, anche “le autorità di vigilanza sulla privacy di Francia e Irlanda hanno dichiarato di aver contattato l’autorità italiana di regolamentazione dei dati per discutere le proprie conclusioni”. Secondo la BBC, anche la Commissione irlandese per la protezione dei dati e l’autorità di regolamentazione Uk inizieranno ad analizzare i chatbot AI, soprattutto in merito alla protezione dei dati.
Dunque ”l’Italia si pone sicuramente come il capofila europeo di una richiesta di regolamentazione a livello di Sistema Europa dello sviluppo e dell’utilizzo dell’intelligenza artificiale sia in ambito professionale che ricreativo”, commenta Andrea De Micheli, presidente di Web3 Alliance, primo consorzio italiano che riunisce i player del web 3.0: “Una tecnologia con la quale dovremo tutti noi necessariamente fare i conti perché parte degli elementi dell’innovazione imprenditoriale con cui abbiamo a che fare giornalmente”.
Ecco cosa hanno affermato in questi giorni giuristi, accademici, politici, economisti e imprenditori sul provvedimento del Garante Privacy su ChatGPT, un servizio che vede l’Italia nella Top 10 per volume di traffico, mentre anche negli USA ferve il dibattito sull’AI.
Garante Privacy, chi è pro e chi contro il provvedimento italiano su ChatGPT
Il provvedimento del Garante Privacy italiano ha segnalato gravi criticità e violazioni del GDPR, una legge italiana frutto di un regolamento europeo. Tanto che, secondo Reuters, la Germania sta valutando se seguire la strada italiana. E così altre Authority europee. Ma GPT-4 non incontra grane solo in zona UE, ma anche negli Usa, per presunte violazioni delle regole della Federal Trade Commission (FTC).
Guido Scorza, avvocato, componente dell’Autorità per le Comunicazioni, ha spiegato che sono tre i motivi che giustificano il provvedimento del Garante Privacy italiano su ChatGPT:
- la raccolta di dati personali di miliardi di persone (compre le centinaia di milioni di utenti europei) senza informarle di ciò e senza disporre di un’adeguata base giuridica;
- la raccolta di dati personali degli utenti nel corso delle conversazioni senza informarli sulla destinazione di questi dati;
- la generazione di contenuti che, rispondendo a domande, offrono una rappresentazione distorta dell’identità personale, attribuendo a persone fatti e circostanze inesatte.
Il provvedimento del Garante su ChatGPT è l’equivalente alla richiesta di ritiro dal mercato di un modello di auto che non dia garanzie di sicurezza. L’Authority si è limitata a chiedere un intervento e la società lo ha bloccato in via cautelativa. Su Bing, il motore di ricerca di Microsoft che rispetta il GDPR, per esempio è ancora possibile usare ChatGPT. OpenAI si è fermata per capire cosa fare e mettersi in regola.
Pro
A favore del provvedimento della Privacy è Franco Pizzetti, giurista ed ex Garante, secondo il quale l’intervento anticipa un’epoca. In ChatGpt di OpenAI manca infatti un’informazione idonea che agevoli gli interessati nel far valere i loro diritti, a iniziare da un utilizzo consapevole e responsabile della chat (a partire dall’assenza più specifica di un’attenzione adeguata all’età di chi fa uso della chat).
“Come (…) già detto in diverse occasioni, da ultimo nell’intervento alla giornata organizzata dal Garante per il 25 anniversario della istituzione dell’Autorità”, spiega Pizzetti su Agendadigitale.eu, “è assolutamente essenziale che nella società digitale sia adeguatamente tutelato e garantito il diritto di coloro che si avvalgono della rete di poter conoscere come sono trattati i dati e da chi, ma soprattutto “chi sono” “come operano” gli interlocutori che ciascuno può incontrare sulla rete e con i quali può entrare in relazione.
Nella società digitale non si tratta più solo di tutelare il tradizionale diritto alla privacy inteso come diritto individuale relativo all’uso dei dati riferiti o riferibili a una persona individuata o individuabile”. Certo questo diritto resta ed assume anche una nuova centralità: non a caso tutti i provvedimenti relativi all’uso di tecnologie digitali che si avvalgono del trattamento di dati ribadiscono sempre la loro compatibilità col GDPR e i diritti in esso garantiti.
Tuttavia è altrettanto evidente che una società come quella digitale, sempre più basata su relazioni che comportano scambi di dati, non può limitarsi a tutelare i dati e le reti come infrastrutture tecniche”.
“Proprio perché le relazioni (personali, sociali, economiche) si basano su dati che non sono solo scambiati nell’ambito della relazione ma anche usati e trattati per definire chi sia l’interlocutore col quale si entra in relazione e se i dati che in rete lo rappresentano e ne definiscono le attività siano o no esatti e affidabili, il diritto degli interessati (che in questa logica diventano tutti gli utenti della rete) ad essere adeguatamente informati sull’uso e l’affidabilità dei dati che concorrono anche a definire i loro interlocutori, e dunque incidono direttamente sulla affidabilità della relazione, diventa assolutamente centrale”, conclude Pizzetti.
Ma anche altri esperti guardano con interesse al provvedimento del Garante Italiano. “Dopo il blocco all’accesso applicato da OpenAI a ChatGPT, su richiesta del Garante italiano, il mercato professionale sta già alacremente cercando soluzioni che permettano di aggirare il divieto imposto: utilizzare una VPN (Rete Privata Virtuale) a pagamento per non essere geograficamente tracciati e quindi poter utilizzare indisturbati i servizi dell’AI. Ma è questo il modo corretto di affrontare il problema, sollevato dal Garante? Pensiamo davvero che lo sviluppo dell’AI non debba sottostare ad alcun vincolo o, piuttosto, riteniamo che l’argomento sia degno di essere seriamente affrontato senza imporre divieti a priori?”, si domanda Andrea De Micheli, presidente di Web3 Alliance.
“Applicando norme e divieti senza una adeguata contestualizzazione – sottolinea De Micheli – non si ottiene nulla per proteggere i cittadini dall’utilizzo fraudolento dei propri dati, ma si compromette irrimediabilmente la propria credibilità, entrando nell’ambìto club dei vietatori, che fino a ieri, a quanto pare, era abitato da alcuni Paesi noti per la ferrea protezione della privacy dei loro cittadini, quali Russia, Cina, Iran, Egitto, Cuba, Siria e Corea del Nord”.
“Siamo a favore di uno sviluppo normato ma che, prima di tutto, guardi al sistema economico italiano e al sostegno dell’innovazione pubblica e privata per garantire la competitività del Sistema Paese a livello internazionale. Chiediamo quindi al legislatore che crei le condizioni per lo sviluppo di un quadro normativo in grado di non porre limiti all’innovazione ma che, al contrario, renda sicuri e accessibili i servizi e gli sviluppi dell’Intelligenza Artificiale alle persone e alle imprese”, conclude De Micheli.
Vitalba Azzolini, giurista, ha spiegato su Twitter che “ha effetto immediato la limitazione provvisoria del trattamento dei dati degli utenti stabiliti in Italia, fermo restando il trattamento dei dati degli altri molti milioni di utenti, che può proseguire come è stato finora, continuando a sostanziare il servizio offerto”. Rispondendo a Loquenzi che le chiedeva se OpenAI non avesse o meno altra scelta se non bloccare, Azzolini ha risposto: “Non possiamo sapere se OpenAI è in grado o no. L’interruzione può anche tradursi nella non-volontà di adeguarsi a quanto chiesto dal garante. Inoltre OpenAI poteva dimostrare subito che le obiezioni del garante sulla violazione del GDPR erano sbagliate, e proseguire senza sosta”. “Significa: puoi continuare a offrire il servizio, escludendo i dati degli utenti in Italia, finché non dai chiarimenti. Se riesci a espungere quei dati, prosegui. Se non puoi farlo, forse significa che violi norme del GDPR”.
“Il Garante, attraverso la protezione dei dati, protegge le libertà fondamentali delle persone”, ha spiegato il giornalista Luca De Biase sul suo blog, “OpenAI ha dichiarato di rispettare la legge ma, chiudendo, ha implicitamente ammesso di non esserne poi tanto sicura”.
Eppure “una frenata nell’utilizzo di questa tecnologia deve essere l’occasione per approfondire e soprattutto per rilanciare l’innovazione, non il suo contrario”, mette in risalto De Biase: “L’istruttoria del Garante farà conoscere meglio lo stato della questione”.
D’accordo con il Garante è anche Stefano Rossetti, avvocato dell’European Center for Digital Rights, che al giornale Domani ha spiegato perché il Garante abbia ragione: “L’Authority ha deciso con coraggio e competenza”.
Anche Marco Scialdone, Head litigation & Academic Outreach di EuroConsumers, afferma in un tweet che ChatGPT evidenzia “l’occasione persa” con AIAct “nel non aver preso in considerazioni basi giuridiche ad hoc per il data processing per addestramento sistemi AI, lasciando il GDPR come elefante in una cristalleria”. E aggiunge: “Forse sarà occasione per un nuovo (e più ampio) approccio all’interesse legittimo come base giuridica del trattamento, cosa che agevolerebbe anche altre situazioni, oggi vittime della ‘golden rule’ del consenso”.
Stefano Epifani, presidente della Fondazione sostenibilità digitale, ha spiegato all’AGI che “il Garante ha alzato la voce e OpenAI ha tirato un pugno. Nel merito il Garante ha fatto bene ad alzare la voce, ma nel metodo c’erano strade più efficaci tipo mettersi d’accordo prima con gli altri garanti europei e scegliere una strada condivisa”.
Francesco DiCostanzo, presidente di Fondazione Italia Digitale, ha infine illustrato che “il blocco di ChatGPT in Italia ci ricorda la necessità di garantire sicurezza”, anche se “non possiamo però avere paura dell’innovazione (…): serve investire in cultura digitale”.
Contro
L’intervento del Garante della Privacy è stato interpretato da alcuni economisti, imprenditori del digitale e politici come un provvedimento luddista e retrogrado. “L’idea che le istituzioni italiane possano bloccare lo sviluppo dell’intelligenza artificiale è una barzelletta”, ha twittato Matteo Renzi, ex presidente del Consiglio e fondatore di Italia Viva: “Non si ferma l’innovazione per decreto. Preoccupiamoci di costruire il futuro, non di fare battaglie ideologiche con la testa rivolta al passato #ChatGpt“.
Fra l’altro a definire l’intervento del Garante Privacy “eccessivo” è stato anche il ministro delle Infrastrutture e vice presidente del Consiglio Matteo Salvini: “Trovo sproporzionata la decisione del Garante della Privacy che ha costretto ChatGPT a impedire l’accesso dall’Italia, primo e unico Paese occidentale dove ciò avviene. Oltretutto sono ormai decine i servizi basati su intelligenza artificiale”.
“Paradossalmente, poi, lo stesso ChatGPT alimenta la chat di Bing, motore di ricerca concorrente di Google, che rimane perfettamente accessibile”, ha affermato Salvini: “Ogni rivoluzione tecnologica comporta grandi cambiamenti, rischi e opportunità, è giusto controllare e regolamentare attraverso una collaborazione internazionale tra regolatori e legislatori, ma non si può bloccare, impedendo e danneggiando il lavoro di chi fa impresa, ricerca, innovazione”. “Peraltro -dice ancora- non bisogna essere ipocriti: problematiche legate alla privacy riguardano praticamente tutti i servizi online, serve buonsenso. Salvo che in caso di attività criminali o rischi per la sicurezza nazionale, io sono sempre contro ogni censura e per il libero pensiero, non è accettabile che in Italia, patria di Galileo, Marconi e Olivetti, si debba prendere in considerazione di usare una VPN per superare un blocco come avviene in Cina e nei Paesi privi di libertà”.
“Così ChatGpt ha stravolto il mio lavoro. L’Italia resterà indietro di 100 anni”, ha affermato Angelo Schirano a Repubblica. Schirano guida l’AI per una società fintech: ex Uber, ex Facebook, definisce lo scontro tra Garante e OpenAI “una riedizione dello scontro tra Chiesa e Galileo”. Dove la Chiesa, anacronistica, è il Garante della Privacy e Galileo l’AI.
“Questo ‘Access denied’ solo in Italia, mi fa impazzire. Come fossimo in Cina”, ha scritto in tweet Giampaolo Galli, Osservatorio dei Conti Pubblici Italiani dell’Università Cattolica: “Siamo bravissimi a bloccare l’innovazione. Ma ciò che serve è l’opposto: qualcuno che abbia ancora voglia di innovare”.
Luciano Floridi, tra le voci più autorevoli della filosofia contemporanea e dell’etica dell’informazione, ha dichiarato all’Huffington Post che “bloccare ChatGPT è una misura draconiana”, tuttavia “impariamo ad usarlo e facciamo le leggi”.
Non solo privacy nel dibattito internazionale sull’AI: la lettera aperta dei mille con Elon Musk
Il Center for AI and Digital Policy ha dichiarato che il chatbot AI violerebbe le regole della Federal Trade Commission (FTC). Secondo l’organizzazione di ricerca indipendente, OpenAI avrebbe infatti violato i principi stabiliti per l’AI e GPT-4 sarebbe “parziale, ingannevole” e solleverebbe “un rischio per la privacy e la sicurezza pubblica”.
La denuncia del Center for AI and Digital Policy giunge, mentre ferve il dibattito in Italia, ma anche in tutta Europa sulle presunte violazioni del GDPR.
Ma non finisce qui. Il dibattito sui pro e contro dell’intelligenza artificiale tocca in realtà temi scottanti a livello mondiale. “I sistemi di AI dotati di un’intelligenza competitiva con quella umana possono comportare rischi profondi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di intelligenza artificiale” è infatti l’incipit della controversa lettera di Elon Musk, Ceo di Tesla e Twitter e primo investitore in OpenAI nel 2015 (era nel gruppo di sei investitori che hanno contribuito con una donazione da un miliardo di dollari ciascuno alla fondazione di OpenAI), e di altri mille esperti del settore.
Pubblicata dal Future of Life Institute, la lettera aperta si concentra sui problemi etici che deriverebbero da uno sviluppo incontrollato delle intelligenze artificiali. Secondo alcuni intellettuali, le conseguenze di sistemi come ChatGPT provocherebbero uno “scenario Terminator”, dal titolo del celebre film di fantascienza che ha come protagonista Arnold Schwarzenegger.
“Come affermato nei principi di Asilomar per l’intelligenza artificiale ampiamente approvati, l’IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate”, avverte la lettera dei mille: “Sfortunatamente, questo livello di pianificazione e gestione non sta avvenendo, anche se negli ultimi mesi i laboratori di AI si sono impegnati in una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile”.
“I sistemi di intelligenza artificiale contemporanei stanno diventando competitivi con gli esseri umani in compiti generali e dobbiamo chiederci se sia il caso di lasciare che le macchine inondino i nostri canali di informazione“, continua la lettera aperta. “Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà? Queste decisioni non devono essere delegate a leader tecnologici non eletti”.
“I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili”, conclude la lettera: “Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull’intelligenza artificiale generale afferma che a un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri, e per gli sforzi più avanzati concordare di limitare il tasso di crescita dei calcoli utilizzati per creare nuovi modelli. Siamo d’accordo. Quel punto è ora, lo abbiamo già raggiunto”.
La risposta di Bill Gates
A questa lettera che chiede una moratoria sullo sviluppo dell’intelligenza artificiale, ha già risposto Bill Gates, co-fondatore di Microsoft, una delle aziende che sta investendo miliardi di dollari in OpenAI. L’azienda di Redmond infatti ha finanziato OpenAI con un miliardo di dollari nel 2019, di nuovo nel 2021, per estendere la partnership con un ulteriore investimento di 10 miliardi di dollari per i prossimi anni (secondo Bloomberg).
L’agenzia Reuters riporta che Bill Gates non ritiene utile e fattibile la moratoria di sei mesi (uno standby che, secondo alcuni esperti di geopolitica offrirebbe solo un vantaggio alla Cina). Ma pensa che sia necessario individuare le aree critiche per risolvere le sfide (“We need to identify the tricky areas”). Secondo il filantropo della Bill and Melinda Gates Foundation, l’AI – rivoluzionaria come Internet e gli smartphone – dovrebbe servire a risolvere i problemi legati alle disuguaglianze nel mondo.
Infatti l’AI potrebbe generare un enorme incremento della produttività, tale da creare benefici diffusi. Ma c’è chi teme che i vantaggi rimangano in una ristretta cerchia di Happy Few, mentre i licenziamenti da automazione possa creare una disoccupazione di massa. Ma, appunto, queste sono solo previsioni. Le stime richiedono razionalità: non un’inutile divisione fra apocalittici ed integrati, fra luddisti ed entusiasti, ma regolamentazioni ed eventuali interventi legislativi per evitare storture del mercato del lavoro eccetera.
Conclusioni
L’intelligenza artificiale potrebbe porre problemi non solo in tema privacy, ma anche di informazione, lavoro, istruzione e tutela del copyright.
Nel frattempo il provvedimento italiano potrebbe fare scuola: non solo in Europa, ma perfino negli USA, anche se su basi diverse e più ampie. Ma non è una partita fra privacy e tecnologia, come spiega all’AGI Stefano Epifani, presidente della Fondazione sostenibilità digitale: “Le piattaforme puntano a esercitare il proprio potere sugli Stati approfittando di una mancata coesione a livello europeo”.
OpenAI ha tutto l’interesse ad adeguarsi in fretta alle normative, per non perdere la clientela italiana, quella europea e perfino quella statunitense. E l’adeguamento alle regole è il primo passo per fare buoni affari e avere meritato successo. Nel frattempo il dibattito ferve, mentre crescono i dubbi degli esperti che chiedono di mettere in pausa lo sviluppo dell’AI, almeno in attesa di regolamentarla.
Il capitalismo delle Big Tech e delle startup non ha bisogno di troppe regole, ma di poche regole certe per poter prosperare, sviluppare innovazione e creare posti di lavoro in un mondo dove nessuno abbia paura dell’impatto delle nuove tecnologie.
Anche la californiana Università di Stanford, con un forte legame da sempre fra il campus e i garage della Silicon Valley, ha rilasciato un report sui vantaggi e i rischi dell’AI per evitare l’ingresso nell’era del Corporate Control. Segno che il momento di parlarne è ora, per regolamentare il mercato, laddove serve, per poi cogliere le enormi opportunità che l’intelligenza artificiale offre.
In una società sempre più digitale è destinato a crescere sia il ruolo delle Autorità Garanti, dei DPO e dei responsabili dell’uso dei dati sia gli strumenti di collaborazione tra di loro. “Sarà certamente necessario e fondamentale che le Autorità garanti rafforzino sempre di più il loro ruolo di correttori e vigilatori della società digitale anche adottando provvedimenti che, come quello qui in esame, siano anticipatori e fortemente innovativi”, conclude Franco Pizzetti su Agenda Digitale.
Infine il Canada, sulle orme dell’AI Act della Ue, propone nuove leggi sull’AI per regolarne l’impatto, stabilire nuovi AI & Data Commissioner proibire certi utilizzi pericolosi dell’AI.
Come ha scritto il giornalista Luca De Biase, “il Garante per la protezione dei dati personali ha chiesto a OpenAI di rispettare le leggi sulla tutela dei dati personali e in particolare sull’accesso dei minori al servizio. OpenAI ha chiuso il servizio in Italia. È urgente valutare se queste decisioni sono proporzionate ai problemi, ma soprattutto è essenziale cogliere l’occasione per rilanciare l’innovazione. Facendo chiarezza tra gli abbagli e le allucinazioni di queste tecnologie”.
Giovedì 6 aprile, in serata, è previsto un incontro in videoconferenza tra i rappresentanti di OpenAI e il Garante per la protezione dei dati personali: “L’iniziativa, apprezzata dal Garante, fa seguito alla lettera con cui ieri la società statunitense ha risposto al Garante per esprimere la propria disponibilità immediata a collaborare con l’Autorità italiana al fine di rispettare la disciplina privacy europea e giungere a una soluzione condivisa in grado di risolvere i profili critici sollevati dall’Autorità in merito al trattamento dei dati dei cittadini italiani”.