I regolatori cinesi presso la Cyberspace Administration of China (CAC), l’11 aprile 2023 hanno pubblicato una bozza di misure per governare la fornitura di servizi di AI generativa in Cina. La bozza, che è stata aperta al commento pubblico fino al 10 maggio, ha come obiettivo i servizi che generano testo, immagini, video, codice e altri media, e il suo annuncio segue la sensazione causata dal lancio di ChatGPT da parte dell’azienda statunitense OpenAI, nonché una corsa da parte delle aziende cinesi per offrire prodotti simili.
Nella sua stesura, il Measures for the Management of Generative Artificial Intelligence Services (vedi traduzione integrale) rende le aziende che forniscono servizi di AI generativa al pubblico responsabili dei risultati dei loro sistemi e richiede che i dati utilizzati per addestrare i loro algoritmi soddisfino requisiti rigorosi.
Il forum DigiChina della Stanford University – un progetto del Programma di geopolitica, tecnologia e governance presso lo Stanford Cyber Policy Center- ha chiesto a un gruppo di esperti di valutare cosa significhi questa bozza per il futuro del mercato cinese dell’AI, quanto sia fattibile per le aziende fornire servizi convincenti rispettando i requisiti e cosa aggiunga questo regolamento a uno spazio normativo cinese già attivo sull’AI. Tra le norme già in vigore ci sono quelle sui servizi di “sintesi profonda”, in vigore da gennaio, e i requisiti di deposito e altre disposizioni sugli algoritmi di raccomandazione.
Le tecnologie di “sintesi profonda”
Per Helen Toner, Direttore della strategia e delle sovvenzioni per la ricerca fondamentale, Centro per la sicurezza e le tecnologie emergenti, Georgetown University, questa bozza di norme è l’ultimo tassello della struttura normativa che la Cina sta costruendo intorno all’AI e alle tecnologie correlate. Per dare un senso a questa nuova bozza, il punto di riferimento più importante è la serie di norme per le cosiddette tecnologie di “sintesi profonda” entrate in vigore tre mesi fa. Quel documento ha gettato una solida base iniziale per regolamentare l’AI generativa, compresi i sistemi di generazione di testo come i chatbot, quindi è interessante vedere già una nuova serie di disposizioni. A mio avviso, spiccano due elementi importanti di questa nuova bozza di norme e un punto di curiosità:
Una differenza significativa tra le norme esistenti sulla sintesi profonda e la bozza di aprile è il modo in cui vengono disciplinati i dati utilizzati per addestrare i sistemi di AI generativa. Mentre le norme esistenti toccano solo brevemente questo argomento, l’articolo 7 della nuova bozza stabilisce requisiti ampi ed esigenti. Il requisito di escludere i “contenuti che violano i diritti di proprietà intellettuale” è alquanto opaco, dato che lo status di copyright di molti dei dati in questione – tipicamente raccolti su larga scala da un’ampia gamma di fonti online – è oscuro. La clausola che richiede ai fornitori di “garantire la veridicità, l’accuratezza, l’obiettività e la diversità dei dati” è ancora più sorprendente. È ipotizzabile che la necessità di rispettare questa clausola possa costringere i team cinesi di AI a sviluppare strumenti di filtraggio molto più efficaci per i dati che utilizzano, fornendo forse in ultima analisi un vantaggio rispetto a sforzi internazionali più ad hoc. Ma la quantità di dati di addestramento disponibili è già un importante collo di bottiglia per le dimensioni e la sofisticazione dei modelli di AI generativa all’avanguardia. Molto probabilmente, l’effetto principale di regole così esigenti (e vaghe) sarà che i gruppi cinesi faranno fatica a mettere insieme gli enormi set di dati di cui avrebbero bisogno per tenere il passo con i concorrenti internazionali.
Un secondo importante elemento di novità è che, con una sola frase, l’articolo 5 sembra risolvere un enigma che ha lasciato perplessi i responsabili politici dell’Unione europea per mesi. L’articolo specifica che le aziende che forniscono l’accesso all’AI generativa tramite “interfacce programmabili” – ovvero API come quelle rilasciate da OpenAI e Google – sono responsabili di tutti i contenuti prodotti. Questa posizione è semplice e accattivante, ma sembra destinata a scontrarsi con ostacoli pratici. Mentre lo sviluppatore originale dell’intelligenza artificiale può e deve essere responsabile di alcuni tipi di problemi, questo approccio lo riterrebbe responsabile di tutto, compresi i problemi derivanti dalle scelte fatte dall’azienda cliente a valle in merito al design dell’applicazione o a come limitare il comportamento dell’utente. Sarà interessante vedere se questa disposizione rimarrà intatta durante il processo di commento e revisione.
Sbloccare il potenziale del software-as-a-service in Cina
Per Zac Haluza, autore, editore associato DigiChina, con lo sviluppo di prodotti di AI generativa in linea con queste nuove regole, i contenuti generati dall’AI (AIGC) potrebbero sbloccare il potenziale del software-as-a-service (SaaS) cinese. Storicamente, il mercato SaaS in Cina è rimasto indietro rispetto all’infrastructure-as-a-service (IaaS) e al platform-as-a-service (PaaS). Questo perché le imprese si sono generalmente concentrate sulla migrazione dell’infrastruttura al cloud, mentre il trasferimento dei processi aziendali al cloud tende a essere più difficile. Tuttavia, le potenziali applicazioni dell’AI generativa – creazione di risorse artistiche e video per materiali pubblicitari, alimentazione di assistenti esecutivi addestrati su dati e politiche interne e informazioni sulle decisioni amministrative sintetizzando e riassumendo grandi quantità di dati, per citarne alcune – aprono un nuovo livello di potenziale per il mercato SaaS cinese.
Il governo cinese vuole creare un proprio modello di governance per le nuove tecnologie
Per Yan Luo, partner Covington & Burling e Xuezi Dan, associato Covington & Burling, la bozza delle misure prevede requisiti che possono coprire un’ampia gamma di questioni spesso dibattute in relazione alla governance dell’AI generativa a livello globale, come la protezione dei dati, la non discriminazione, i pregiudizi e la qualità dei dati di addestramento. La bozza delle misure evidenzia anche questioni derivanti dall’uso dell’AI generativa che sono di particolare interesse per il governo cinese, come la moderazione dei contenuti, il completamento di una valutazione della sicurezza per le nuove tecnologie e la trasparenza degli algoritmi. La bozza riflette quindi l’obiettivo del governo cinese di creare un proprio modello di governance per le nuove tecnologie come l’AI generativa.
Per Matt Sheenaan, borsista Carnegie Endowment per la Pace Internazionale, la bozza delle misure cinesi sull’AI generativa rivela sia le vulnerabilità che i punti di forza del suo approccio alla regolamentazione dell’AI. La natura parzialmente duplicativa della bozza evidenzia il problema della mole di norme che riguardano applicazioni specifiche dell’AI. Tuttavia, il modo in cui le norme sull’IA generativa utilizzano gli strumenti di governance creati da normative precedenti mostra i vantaggi di un approccio iterativo alla regolamentazione.
Nell’emanare i precedenti regolamenti sugli algoritmi di raccomandazione e sulla “sintesi profonda“, la CAC ha adottato un approccio “verticale” alla regolamentazione dell’IA: ogni regolamento si rivolge a una specifica applicazione dell’AI, o a un insieme di applicazioni. Ciò contrasta con l’approccio normativo più “orizzontale” dell’AI Act dell’Unione Europea, che copre la maggior parte delle applicazioni della tecnologia. Il punto di forza di un approccio verticale è la sua precisione, in quanto crea rimedi specifici per problemi specifici. Il punto debole è la sua natura frammentaria, con i regolatori costretti a redigere nuove norme per nuove applicazioni o problemi.
Questo affannarsi a scrivere nuove regole per ogni svolta della tecnologia illustra una sfida dell’approccio frammentario, ma la velocità e la solidità della nuova bozza ne illustrano anche la forza. La CAC ha potuto sfornare le norme sull’AI generativa così rapidamente perché ha costruito i suoi muscoli burocratici e ha rifornito il suo kit di strumenti normativi per governare l’AI.
Regolamentazione dell’AI generativa in Cina e censura
Per Seaton Huang, associato di ricerca, Consiglio per le Relazioni Estere, l’emergere di concorrenti di ChatGPT in Cina ha lasciato molti dubbi su come il contesto normativo del Paese influenzerà il potenziale e la fruibilità dei servizi di AI generativa. La nuova bozza di misure pubblicata all’inizio del mese dalla CAC fornisce alcune risposte, ma solleva altri interrogativi su quanto le aziende siano attrezzate per conformarsi alla visione dello Stato sull’uso di queste tecnologie all’avanguardia da parte dei consumatori.
Per quanto riguarda la censura, la bozza delle Misure della CAC non dovrebbe essere vista come un allontanamento dalle politiche esistenti della Cina sulla regolamentazione dei contenuti. I contenuti generati dall’intelligenza artificiale (AIGC) dovrebbero seguire i “valori fondamentali del socialismo” – un termine nebuloso che per anni è stato definito come il decoro generale che ci si aspetta dai cittadini cinesi – e non sovvertire l’autorità statale. Inoltre, le misure prevedono che le aziende si assumano la responsabilità legale sia dei dati di formazione sia dei contenuti creati sulle loro piattaforme di AI generativa.
Le aziende cinesi probabilmente utilizzeranno informazioni pre-firewalled per addestrare le loro piattaforme o impiegheranno “l’apprendimento di rinforzo dal feedback umano” per allontanarle da determinati output. Si tratterebbe di un’impresa impegnativa, soprattutto se si considera la capacità che l’AI generativa ha già dimostrato in tutto il mondo di creare contenuti problematici, dai deepfake alla disinformazione. Entrambe le strategie per soddisfare i requisiti dello Stato richiederebbero sicuramente l’impegno di ulteriore capitale umano o di software specializzato per implementare meccanismi di censura interni.
Per Rogier Creemers, docente di studi cinesi moderni, Università di Leiden; redattore senior DigiChina, in un certo senso, queste nuove norme non sorprendono. Da quando ha acquisito l’autorità primaria sui contenuti online nel 2014, la Cyberspace Administration of China ha emanato una serie di regolamenti molto simili per tutti i tipi di produzione e distribuzione di contenuti online, e l’AI generativa non fa eccezione. Gli elenchi di contenuti proibiti, la localizzazione delle responsabilità presso i principali fornitori di servizi e i requisiti di sicurezza riprendono tutte le forme di regolamentazione precedenti.
Il futuro di Ernie di Baidu
La domanda principale è, ovviamente, cosa comporterà per il futuro dei servizi cinesi di AI generativa, come ad esempio il chatbot Ernie di Baidu, presentato di recente. È evidente che i vincoli normativi li spingeranno in una direzione piuttosto diversa. (…) Baidu ha annunciato partnership per Ernie con produttori di elettrodomestici e automobili. Ciò significa che questi servizi si evolveranno probabilmente in modo più delineato e specifico: di solito le persone non chiedono alla propria auto o al tostapane consigli sulle relazioni o opinioni politiche. Inoltre, è probabile che queste tecnologie troveranno applicazione nelle aree prioritarie del 14° Piano quinquennale, la cui attuazione è in pieno svolgimento. Tra queste, i servizi sociali per i disabili e le regioni rurali relativamente svantaggiate. In quanto tali, possono migliorare la fornitura di assistenza sanitaria e istruzione in luoghi dove medici e insegnanti scarseggiano. Per le aziende, questo significherà che il panorama si evolverà in modo meno eclatante di quanto potrebbe accadere in Occidente, ma, d’altra parte, c’è un ampio sostegno governativo per l’applicazione immediata nel partenariato industriale e nella riforma del settore pubblico.
Per Paul Triolo, associato senior, cattedra fiduciaria di economia e commercio cinese, Centro di Studi Strategici e Internazionali, con l’AI generativa, i chatbot e i modelli linguistici di grandi dimensioni che vanno per la maggiore, non è stata una sorpresa che gli organi di controllo della Cina per i dati e l’AI abbiano sentito il bisogno di presentare una nuova bozza di regolamento. È chiaro che i regolatori cinesi e il sistema di censura dei contenuti, ampio e ben sviluppato, hanno avvertito un forte allarme quando ChatGPT-3 e -4 di OpenAI hanno attirato l’attenzione di utenti, aziende e investitori negli ultimi mesi.
Improvvisamente, invece di cercare di controllare le ricerche sui siti web e di monitorare i termini proibiti nelle e-mail, il sistema dovrà fare i conti con la possibilità per i singoli utenti di porre domande a un’applicazione di AI generativa senza alcuna capacità di monitorare e bloccare l’output in base alla sensibilità e alle parole offensive. L’approccio alla censura basato sulle parole chiave non funziona con i modelli di intelligenza artificiale generativa. Per questo motivo Pechino e la CAC sono nella fase iniziale di elaborazione di un regime normativo che spinga le aziende ad allinearsi politicamente nello sviluppo dei loro modelli.
(…) La nuova normativa sull’AI generativa presenta diversi problemi incombenti. Come per le altre misure di regolamentazione dell’AI adottate dalla CAC nell’ultimo anno, le questioni relative all’implementazione, all’applicazione e alla capacità normativa di monitorare e valutare gli algoritmi di AI rimangono poco chiare. Si tratta di una combinazione unica di regolamentazione dei contenuti e know-how tecnologico, e non è chiaro se le tradizionali autorità di regolamentazione dei contenuti della CAC, supervisionate dalle parti, siano all’altezza del compito. In secondo luogo, è probabile che i regolamenti della CAC servano inizialmente come deterrente, per costringere le oltre 20 aziende e organizzazioni cinesi a trovare nuovi modi per garantire l’allineamento politico.