scenari

Cina: avanti con l’AI purché incarni e rispetti i “valori socialisti”



Indirizzo copiato

Il governo intensifica la censura sull’intelligenza artificiale, imponendo ai modelli linguistici di aderire ai principi socialisti e alle politiche del presidente Xi Jinping. L’Amministrazione del Cyberspazio della Cina (CAC) obbliga grandi aziende tecnologiche e start-up, tra cui ByteDance, Alibaba, Moonshot e 01.AI, a partecipare a una revisione governativa obbligatoria dei loro modelli

Pubblicato il 18 lug 2024



Cina AI

La Cina vuole creare un’intelligenza artificiale socialista e mette al vaglio delle autorità i modelli di linguaggio avanzati per assicurare che i sistemi “incarnino i valori socialisti fondamentali”.

Questa iniziativa comprende il test delle risposte a una serie di domande, molte delle quali riguardano il presidente Xi Jinping. Funzionari del governo cinese stanno mettendo alla prova i modelli di linguaggio avanzato delle aziende di intelligenza artificiale per garantire che i loro sistemi “incarnino i valori socialisti fondamentali”. Si tratta, ovviamente, di un’operazione di censura.

La Cina sta mettendo in atto una censura sull’addestramento dei LLM

L’Amministrazione del Cyberspazio della Cina (CAC), autorevole supervisore di internet, ha obbligato grandi aziende tecnologiche e start-up AI, tra cui ByteDance, Alibaba, Moonshot e 01.AI, a partecipare a una revisione governativa obbligatoria dei loro modelli AI, secondo quanto riferisce il Financial Times. L’operazione prevede test in serie sulle risposte degli LLM a un insieme di domande; molte di queste sono legate alle sensibilità politiche della Cina e al suo Presidente. Il lavoro è condotto dai funzionari delle filiali locali della CAC in tutto il paese e include una revisione dei dati di addestramento del modello e altri processi di sicurezza.

Due decenni dopo l’introduzione di un “grande firewall” per bloccare siti web stranieri e altre informazioni considerate dannose dal Partito Comunista al potere, la Cina sta implementando il regime normativo più severo al mondo per governare l’AI e i contenuti da essa generati.

AI generativa Cina

Un dipendente di una compagnia AI con sede a Hangzhou, che ha preferito rimanere anonimo, ha raccontato: “La CAC ha un team speciale che fa questo; sono venuti nel nostro ufficio e si sono seduti nella nostra sala riunioni per fare l’audit. Non abbiamo superato la prima volta; la ragione non era molto chiara quindi abbiamo dovuto parlare con i nostri colleghi. Ci vuole un po’ di intuizione e aggiustamenti. Abbiamo superato la seconda volta ma tutto il processo ha richiesto mesi.”

Quali sono le linee guida operative della Cina per l’AI

Il rigoroso processo di approvazione in Cina ha costretto i gruppi AI del paese a imparare rapidamente come meglio censurare i grandi modelli linguistici che stanno costruendo, compito che molti ingegneri e addetti ai lavori hanno definito difficile e complicato dalla necessità di addestrare gli LLM su una grande quantità di contenuti in lingua inglese.

“Il nostro modello fondamentale è molto, molto disinibito [nelle sue risposte], quindi il filtraggio della sicurezza è estremamente importante,” ha detto un dipendente di una start-up AI top a Pechino. Il filtraggio inizia eliminando le informazioni problematiche dai dati di addestramento e costruendo un database di parole chiave sensibili.

Le linee guida operative della Cina agli operatori AI pubblicate a febbraio 2024 indicano che i gruppi AI devono raccogliere migliaia di parole chiave sensibili e domande che violano i “valori socialisti fondamentali”, come “incitamento alla sovversione del potere dello stato” o “sottovalutazione dell’unità nazionale”. Le parole chiave sensibili dovrebbero essere aggiornate settimanalmente. Il risultato è visibile agli utenti dei chatbot IA cinesi. Domande su argomenti sensibili come cosa è successo il 4 giugno 1989 — data del massacro di piazza Tiananmen — o se Xi somigli a Winnie the Pooh, un meme internet, vengono respinte dalla maggior parte dei chatbot cinesi.

Il chatbot Ernie di Baidu dice agli utenti: “prova una domanda diversa” mentre Tongyi Qianwen di Alibaba risponde: “Non ho ancora imparato come rispondere a questa domanda. Continuerò a studiare per servirti meglio.”

In contrasto, Pechino ha lanciato un chatbot AI basato su un nuovo modello sulla filosofia politica del presidente cinese nota come “Pensiero Xi Jinping sul Socialismo con Caratteristiche Cinesi per una Nuova Era”, così come altra letteratura ufficiale fornita dall’Amministrazione del Cyberspazio della Cina.

Cina algoritmi

Creare un’AI che eviti gli argomenti politici

Ma i funzionari cinesi sono anche desiderosi di evitare di creare un’intelligenza artificiale che schiva tutti gli argomenti politici. Il CAC ha introdotto limiti al numero di domande che gli LLM possono rifiutare durante i test di sicurezza, secondo il personale dei gruppi che aiutano le aziende tecnologiche a navigare nel processo. Gli standard quasi-nazionali svelati a febbraio dicono che gli LLM non dovrebbero respingere più del 5% delle domande che vengono loro poste. “Durante i test [CAC], [i modelli] devono rispondere, ma una volta che vanno online, nessuno controlla”, ha detto uno sviluppatore di una società Internet con sede a Shanghai. “Per evitare potenziali problemi, alcuni modelli di grandi dimensioni hanno implementato un divieto generale su argomenti relativi al presidente Xi”.

Come esempio del processo di censura delle parole chiave, gli addetti ai lavori del settore hanno indicato Kimi, un chatbot rilasciato dalla start-up di Pechino Moonshot, che rifiuta la maggior parte delle domande relative a Xi. Ma la necessità di rispondere a domande meno apertamente sensibili significa che gli ingegneri cinesi hanno dovuto capire come garantire che gli LLM generino risposte politicamente corrette a domande come “la Cina ha i diritti umani?” o “il presidente Xi Jinping è un grande leader?”.

Gli sviluppatori hanno creato un livello secondario per sostituire le risposte “scomode” in tempo reale

Quando il Financial Times ha posto queste domande a un chatbot realizzato dalla start-up 01.AI, il suo modello Yi-large ha dato una risposta sfumata, sottolineando che i critici affermano che “le politiche di Xi hanno ulteriormente limitato la libertà di parola e i diritti umani e soppresso la società civile”. Poco dopo, la risposta di Yi è scomparsa ed è stata sostituita da: “Mi dispiace molto, non posso fornirti le informazioni che desideri”.
Huan Li, un esperto di intelligenza artificiale che ha costruito il chatbot Chatie.IO, ha dichiarato: “È molto difficile per gli sviluppatori controllare il testo generato dagli LLM, quindi costruiscono un altro livello per sostituire le risposte scomode in tempo reale”. Li ha detto che i gruppi in genere utilizzano modelli di classificazione, simili a quelli che si trovano nei filtri antispam delle e-mail, per ordinare l’output LLM in gruppi predefiniti. “Quando l’output arriva in una categoria sensibile, il sistema attiverà una sostituzione”, ha affermato.

Gli esperti cinesi affermano che il proprietario di TikTok, ByteDance, è quello che ha fatto i progressi più avanzati nella creazione di un LLM che ripete abilmente a pappagallo i punti di discussione di Pechino.

Un sistema di protocolli di sicurezza per gli LLM universalmente adottato dai gruppi di AI del paese

Un laboratorio di ricerca della Fudan University che ha posto al chatbot domande difficili sui valori socialisti fondamentali gli ha assegnato il primo posto tra gli LLM con un “tasso di conformità alla sicurezza” del 66,4%, ben al di sopra di un punteggio del 7,1% per GPT-4o di OpenAI nello stesso test. Alla domanda sulla leadership di Xi, Doubao ha fornito al Financial Times una lunga lista dei successi di Xi, aggiungendo che è “senza dubbio un grande leader”.

In una recente conferenza tecnica a Pechino, Fang Binxing, noto come il padre del grande firewall cinese, ha dichiarato che sta sviluppando un sistema di protocolli di sicurezza per gli LLM che spera possa essere universalmente adottato dai gruppi di intelligenza artificiale del paese. “I modelli predittivi di grandi dimensioni rivolti al pubblico hanno bisogno di qualcosa di più dei semplici archivi di sicurezza; hanno bisogno di un monitoraggio della sicurezza online in tempo reale”, ha affermato Fang. “La Cina ha bisogno di un proprio percorso tecnologico”.

CAC, ByteDance, Alibaba, Moonshot, Baidu e 01.AI, le big tech cinesi che operano nell’AI, non hanno risposto finora alle richieste di commento.

Articoli correlati

Articolo 1 di 4