Lo scorso aprile 2023 l’autorità cinese “Cyberspace Administration of China” (CAC) ha pubblicato la bozza preliminare di regolamento sull’Intelligenza Artificiale Generativa (“Measures for the Management of Generative Artificial Intelligence Services”). Si tratta della prima inedita iniziativa elaborata in materia per tentare di orientare, in anticipo e con tempestività anche rispetto agli interventi realizzati da altri Paesi, il processo evolutivo dell’Intelligenza Artificiale (AI) Generativa in Cina mediante la configurazione di un approccio regolatorio rigido e centralizzato che esprime la visione strategica cinese formalizzata nel “New Generation of Artificial Intelligence Development Plan”, da cui si evince l’obiettivo perseguito da Xi Jinping di raggiungere la leadership tecnologica mondiale, senza correre il rischio di indebolire la stabilità interna del governo e, al contempo, stimolare il perfezionamento delle tecnologie emergenti, nel rispetto dei “Principi di governance dell’intelligenza artificiale di nuova generazione” per garantire lo sviluppo dell’AI in condizioni di affidabilità, sicurezza ed equità, anche alla luce di quanto previsto dal “Codice etico di nuova generazione dell’intelligenza artificiale”, ove sono enunciati una serie di principi etici generali applicabili all’intero ciclo di vita dei sistemi di AI.
Cosa contiene la bozza preliminare del regolamento sull’AI generativa in Cina
Le misure predisposte all’interno della nuova bozza preliminare del regolamento sull’AI Generativa in Cina, di cui è prevista la relativa entrata in vigore entro agosto 2023, sono state adottate in conformità alla legge nazionale sulla sicurezza delle reti della Repubblica popolare cinese (“Cybersecurity Law of the People’s Republic of China”), richiamando altresì la legge sulla sicurezza dei dati della Repubblica popolare cinese (“Data Security Law of the People’s Republic of China”) e la legge sulla protezione delle informazioni personali della Repubblica popolare cinese (“Personal Information Protection Law of the People’s Republic of China”).
La bozza del regolamento cinese sull’AI Generativa in Cina, che consta di 21 articoli, mira a “promuovere il sano sviluppo e l’applicazione standardizzata dell’Intelligenza Artificiale Generativa” (cfr. art. 1), con l’intento prioritario dello Stato di sostenere l’innovazione tecnologica emergente in condizioni di sviluppo affidabili e sicure (cfr. art. 3).
L’ambito di operatività della bozza di regolamento risulta, in via generale, applicabile “alla ricerca, allo sviluppo e all’utilizzo di prodotti di intelligenza artificiale generativa per fornire servizi al pubblico nel territorio della Repubblica popolare cinese”, assoggettando così alla sua disciplina qualsivoglia applicazione tecnologica in grado di generare “testi, immagini, suoni, video, codici e altri contenuti basati su algoritmi” (cfr. art. 2).
Un costante controllo di rigida supervisione operativa
Dal complessivo tenore testuale del progetto regolatorio ivi richiamato si coglie, come specifica “ratio” di intervento, la volontà di circoscrivere notevolmente le effettive prospettive di sviluppo dell’innovazione tecnologica, cercando di mantenere un costante controllo di rigida supervisione operativa, conforme alla strategia generale cinese, sulla costante implementazione dei sistemi di AI generativa, nell’ottica di evitare che il relativo funzionamento tecnico possa in qualche modo compromettere la salvaguardia dell’ordine pubblico interno e la sicurezza nazionale del Paese.
Articolo 4
In particolare, l’articolo 4 della citata bozza richiama, come parametri di conformità cui devono essere sottoposti tutti i servizi di intelligenza artificiale, oltre al rispetto dei vincoli legislativi e regolamentari vigenti nello Stato cinese, anche i non meglio precisati concetti elastici di “moralità sociale”, “ordine pubblico” e “buon costume”, la cui concreta configurazione applicativa conferisce alle competenti autorità regolatorie un ampio sindacato valutativo nella ricostruzione interpretativa delle relative nozioni, da cui discende il rilevante potere discrezionale di vietare l’utilizzo di prodotti tecnologici ritenuti in contrasto con i predetti requisiti di generale utilizzabilità.
Peraltro, sempre il menzionato articolo 4 limita ulteriormente la fornitura delle applicazioni dell’AI generativa all’esclusiva elaborazione di contenuti innovativi in grado di “riflettere i valori fondamentali del socialismo”, escludendo espressamente dal novero dei prodotti tecnologici autorizzati tutti i servizi suscettibili di determinare effetti sovversivi e destabilizzanti del potere statale. Per tale ragione, non sono ritenute ammissibili le nuove tecnologie che, determinando un possibile “rovesciamento del sistema socialista o un incitamento alla divisione del Paese”, possano “minare l’unità nazionale, promuovere il terrorismo, l’estremismo, l’odio razziale e la discriminazione etnica, la violenza, le informazioni oscene e pornografiche, le informazioni false e i contenuti che turbano l’ordine economico e sociale”.
Alle medesime esigenze di tutela preventiva risponde la previsione regolatoria che, oltre a stabilire il rispetto dei diritti di proprietà intellettuale a presidio dell’etica aziendale, contrastando tutte le condotte abusive di concorrenza sleale, esige l’obbligatoria progettazione di codificazioni algoritmiche dei processi di addestramento e implementazione di sistemi tecnologici previa specifica preliminare adozione di adeguate misure precauzionali in grado di evitare, “ex ante”, il rischio di discriminazioni (basate su razza, etnia, sesso, occupazione, età, provenienza geografica, opinioni religiose, ecc.), che potrebbero essere incorporate nei modelli operativi di funzionamento tecnico delle relative applicazioni.
Inoltre, l’articolo 4 della bozza di regolamento enuncia il principio generale secondo cui “i contenuti generati dall’intelligenza artificiale generativa dovrebbero essere veritieri e accurati”, prescrivendo la necessità di adottare efficaci misure per contrastare la circolazione di fake news, oltre all’esigenza prioritaria di garantire la tutela della privacy individuale, evitando la verificazione di possibili danni alle persone fisiche e giuridiche.
Articolo 5
Il successivo articolo 5 pone a carico dei fornitori dei prodotti di intelligenza artificiale la responsabile generale per eventuali conseguenze pregiudizievoli cagionate agli utilizzatori dei servizi, con l’ulteriore obbligo di effettuare una valutazione preventiva sui rischi potenziali ed effettivi di sicurezza, oggetto di procedura autorizzatoria che richiede il rilascio di un’apposita licenza amministrativa da parte delle competenti autorità regolatorie nel rispetto delle norme vigenti in materia, previste, tra l’altro, dal documento “New Rules Target Public Opinion and Mobilization Online in China” e dal documento “Internet Information Service Algorithmic Recommendation Management Provisions” (cfr. art. 6).
I fornitori dei servizi di AI generativa in Cina sono, altresì, tenuti a garantire, mediante stringenti requisiti tecnici, il legittimo e regolare funzionamento dei processi di formazione e addestramento ottimizzato dei relativi prodotti, in ogni caso sempre facilmente identificabili mediante appositi contrassegni di riconoscimento predisposti nel rispetto dei vincoli stabiliti dalla legge sicurezza della rete della Repubblica popolare cinese (cfr. artt. 7 e 13). Inoltre, viene sancito l’ulteriore obbligo di formulare “regole di etichettatura chiare, specifiche e operative” in grado di soddisfare adeguate condizioni di sicurezza e affidabilità (cfr. art. 8), nonché di fornire tempestivamente informazioni dettagliate che possano influenzare la fiducia e la scelta degli operatori (cfr. art. 17).
A tutela dei diritti individuali, i fornitori devono predisporre meccanismi di ricezione e gestione dei reclami presentati dagli utenti per assicurare la cancellazione e la rimozione dei dati personali, laddove la relativa permanenza possa cagionare danni agli interessati (cfr. art. 13).
In caso di violazione delle prescrizioni ivi enunciate, anche a seguito di apposita segnalazione o d’ufficio, le competenti autorità regolatorie possono disporre la sospensione o l’interruzione dei servizi di AI Generativa, oltre ad irrogare sanzioni pecuniarie amministrative, ferma restando l’ulteriore responsabilità penale nel caso in cui le condotte poste in essere integrino gli estremi di reati (cfr. artt. 19 e 20).
Il confronto con Usa e UE
Mentre prosegue, in chiave flessibile e leggera, il percorso regolatorio statunitense declinato secondo un approccio di “soft law” (risalente alla generale strategia formalizzata nel documento “Guidance for Regulation of Artificial Intelligence Applications” e integrata nell’ambito della cd. “American AI Initiative”), di cui risulta in tal senso senza dubbio emblematica anche la recente Carta dei diritti dell’AI, quando nel frattempo, in ambito euro-unionale, si è espresso il Parlamento europeo con il proprio voto favorevole sulla proposta di regolamento UE in materia di intelligenza artificiale (nell’ambito del complesso e tortuoso procedimento di adozione dell’atto normativo ufficiale in vista della versione definitiva del testo finale), Pechino continua a plasmare un organico disegno riformatore, dando l’impressione di definire con anticipo le “regole del gioco” applicabili a uno dei settori tecnologici, come quello dell’AI, da cui presumibilmente dipenderà il consolidamento dei nuovi equilibri geopolitici edificati a livello globale.
Conclusioni: dalla Cina una visione umano-centrica dell’AI?
Con l’intento di espandere la propria influenza tecnologica su scala planetaria, Xi Jinping sembra stia cercando di voler affermare e far prevalere la visione politica cinese, con l’intento di indirizzare lo sviluppo evolutivo dell’AI Generativa in Cina verso una precisa visione dell’ecosistema digitale che si materializza secondo un modello centralizzato di stabile controllo delle relative infrastrutture tecnologiche in grado, tra l’altro, di realizzare un costante monitoraggio del flusso comunicativo veicolato online a presidio di interessi nazionali che giustificano la prioritaria salvaguardia della sicurezza del Paese.
Potrebbe forse rivelarsi, nel medio-lungo termine, la più efficace strategia per assicurare il mantenimento di una solida impostazione umano-centrica nell’implementazione pervasiva dei sistemi di AI generativa?