
Questo post è parte del “Punto di vista sull’uso strategico dell’intelligenza artificiale”.
Sinossi Il modello cinese di sviluppo dell’IA si distingue da quello europeo per l’approccio sistematico e pragmatico. L’intelligenza artificiale viene integrata in tutti i settori produttivi e sostenuta da una regolamentazione estesa. Dal programma Made in China 2025 alla strategia AI Plus, la Cina punta così a consolidare la propria leadership. Pur riconoscendone i rischi, il Paese considera la mancata evoluzione il rischio più significativo. l modello però favorisce l’innovazione entro i limiti imposti dallo Stato, privilegiando l’efficienza e il consolidamento del potere centrale rispetto alla tutela dei diritti fondamentali.
Sotto il profilo regolatorio (E. Stradella, Le fonti nel diritto comparato: analisi di scenari extraeuropei), dopo diverse fasi oscillatorie (S. Singer, M.Sheehan, China’s AI Policy at the Crossroads: Balancing Development and Control in the DeepSeek Era) la Cina ha avviato una vera e propria corsa normativa. Tra il 2017 e il 2023 sono stati formulati principi guida e strategie nazionali, tra cui il National New Generation AI Plan, con l’obiettivo di assumere una posizione di leadership globale entro il 2030. È stato istituito il Governance Expert Committee che ha definito i principi fondamentali per la governance dell’intelligenza artificiale. Tra il 2020 e il 2022 si è manifestato un maggiore controllo statale, tramite il Cyberspace Administration of China. Allo stesso tempo, c’è stato un rilancio delle collaborazioni internazionali con maggiore apertura ai partners stranieri. Dal 2025, con DeepSeek-R1, la Cina ritorna sulla scena tecnologica, bilanciando controllo e innovazione.
La regolamentazione dell’intelligenza artificiale in Cina (Z. Jet Deng, Shape of China’s AI regulations and prospects) si sviluppa come un mosaico complesso di leggi e regolamenti. Sul fronte della conformità, della raccolta e dell’uso dei dati, le principali normative cinesi (AI Watch: Global regulatory tracker – China, 05/25) includono la legge sulla protezione dei dati personali (2021) e la legge sulla sicurezza dei dati (2021), integrate oggi dal Network Data Security Management (2025). In quest’ottica, risulta strategica la creazione della Shanghai Data Exchange, che mira a creare un mercato internazionale per la compravendita di dati. In Cina, la Cybersecurity Law del 2017 costituisce il principale riferimento normativo in materia di sicurezza informatica. Successivamente, la Cyberspace Administration of China (CAC) ha introdotto regole sull’uso degli algoritmi nei servizi rivolti ai consumatori. Più di recente, con le “Misure Provvisorie per l’Amministrazione dei Servizi di Intelligenza Artificiale Generativa” (15 agosto 2023), si è adottato un approccio incentrato sulla regolamentazione e sul controllo.
La conformità agli algoritmi in Cina è regolata da diversi interventi, tra cui le Disposizioni del 2018 sui servizi di informazione, le Misure provvisorie per i servizi di intelligenza artificiale generativa (2023) e le disposizioni sulla deep synthesis e sulle raccomandazioni algoritmiche (2023). Accanto a queste leggi nazionali, alcune città e province hanno adottato regolamenti locali. Rilevante è anche il ruolo degli standard e delle linee guida, tra cui il Codice etico per l’IA di nuova generazione (2021) e i requisiti di sicurezza aggiornati al 2024. Si aggiungono norme di settore che regolamentano ambiti specifici (es: medico o automobilistico).
Il modello cinese si distingue per un forte intervento statale nell’ambito dell’intelligenza artificiale. Ne sono esempi la creazione della Sottocommissione Intelligenza Artificiale, lo sviluppo dei Principi per l’AI (2019) volti a promuovere sicurezza, trasparenza e la tutela della privacy. Sono presenti iniziative di controllo diretto sulle aziende (sanzioni emanate dagli organismi antitrust e l’obbligo di consegna dei passaporti per i ricercatori).
Parallelamente, la Cina dispone di un articolato corpo normativo sulla protezione dei dati. In questo ambito, la Personal Information Protection Law sembra ispirata in parte al GDPR ma risulta più restrittiva. Si integrata perfettamente con la Cybersecurity Law (2017) e la Data Security Law (2021), creando comunque un quadro multilivello di regolazioni centrali e regionali.
Risultano rilevanti, inoltre, le Deep Synthesis Provisions e le Ethical Review Measures: le prime regolano l’uso delle tecnologie di deep synthesis (deep learning e deep fake). Le seconde invitano agenzie pubbliche, università e imprese a istituire comitati etici per valutare preventivamente le proprie attività di ricerca e sviluppo. Il 15 agosto 2023 è entrato in vigore il primo regolamento amministrativo cinese dedicato ai servizi di AI generativa (“Misure IA”). Tra le disposizioni più rilevanti figura il registro nazionale degli algoritmi (D. Clementi, Generare e non creare? Spunti per una comparazione sulla regolazione dell’intelligenza artificiale generativa tra Stati Uniti, Repubblica Popolare Cinese e Unione Europea) che obbliga le aziende a depositare i modelli e a sottoporli a valutazioni preventive. I fornitori di servizi di IA generativa devono assicurare la sicurezza e la qualità dei dati di addestramento, la legittimità delle fonti, la conformità dei lessici e delle banche dati. I contenuti generati devono rispettare la legge, la morale e l’etica, promuovere i valori socialisti, evitare materiale che minacci lo Stato o la società e che diffusi informazioni false o ideologie negative. A partire dal 1° settembre 2025 sono implementate le regole di etichettatura, che impongono indicazioni esplicite visibili agli utenti o informazioni nei metadati, tutti i testi, le immagini, i video e gli audio generati o modificati da sistemi di intelligenza artificiale. Dal 1° novembre 2025, poi, entreranno inoltre in vigore tre standard nazionali inerenti alla sicurezza e la governance dell’AI generativa (la sicurezza nelle attività di annotazione dei dati; requisiti per i dati di pre-addestramento; criteri di sicurezza relativi ai servizi).
Anche sul fronte della giurisdizione, le Corti hanno contribuito a definire i confini della regolamentazione. Alcuni casi hanno riguardato i diritti della personalità, come la violazione dei diritti di personaggi pubblici, l’uso non autorizzato della voce e i deepfake facciali (I. Cardillo, Disciplina dell’intelligenza artificiale e intelligentizzazione della giustizia in Cina). Sul fronte della proprietà intellettuale, la giurisprudenza cinese è arrivata a riconoscere la tutela autoriale.
Nonostante alcune aree siano regolamentate, esistono campi in cui la legislazione cinese sull’IA presenta gap e differenze significative rispetto alle normative occidentali. Tra questi, le normative sul riconoscimento facciale (si veda quanto scritto per l’Osservatorio da S. Del Gatto, Il riconoscimento facciale in Cina: interviene la Corte Suprema del Popolo), e la sicurezza dei dati biometrici rappresentano un tema critico. Gli organi di sicurezza pubblici hanno la possibilità di censire e utilizzare tali dati, dando vita al database biometrico gestito dalla polizia più grande al mondo, in netto contrasto con l’approccio dell’AI Act europeo (si veda quanto scritto per l’Osservatorio da L. Magli AI Act: i diritti sono tutelati?). Le tutele recentemente introdotte appaiono solide solo superficialmente. Analizzando più a fondo, emergono numerose eccezioni che consentono al governo di aggirare la protezione della privacy, con un potere decisionale statale praticamente illimitato sulla sorveglianza di massa (si veda quanto scritto per l’Osservatorio da A. Palladino, La Cina sperimenta la “Robot – justice” per la lotta al crimine).
All’inizio del 2025, con il lancio di DeepSeek-R1, la Cina ha segnato una svolta nello sviluppo dell’intelligenza artificiale. La tecnologia cinese richiede meno potenza di calcolo, ed è più efficiente dal punto di vista energetico. Ma è con il programma AI Plus Initiative che la Cina punta a integrare l’IA in tutti i settori industriali. L’IA è infatti considerata leva strategica per una “smart economy” ed essenziale per rafforzare la posizione internazionale. Per sostenere la strategia, Pechino ha finanziato 50 laboratori di deep learning e NLP con oltre 30 milioni ciascuno. A livello locale, il governo di Pechino ha stanziato 2 miliardi per il parco AI nel 2023. Le grandi aziende come Tencent, Alibaba e Baidu collaborano con università prestigiose inoltre sono presenti anche progetti open-source e cooperazione internazionale. È stato creato un fondo di investimento per semiconduttori da 47,5 miliardi di dollari. Tra il 2014 e il 2023, la Cina ha depositato oltre 38.000 domande di invenzione in IA, molte in generativa (contro circa 6.300 degli Stati Uniti). La Cina detiene la maggioranza dei brevetti globali per IA (69,7%) ed è al primo posto per pubblicazioni scientifiche sul tema (si può consultare, in merito, ilThe 2025 AI Index Report). Gli Stati Uniti mantengono il primato nella produzione dei modelli più avanzati (40 nel 2024, contro 15 della Cina e 3 dell’Europa), ma la Cina sta rapidamente colmando il divario. A livello normativo, mentre l’Europa punta a regolare l’intero settore con l’AI Act, progetti internazionali tentano di disciplinare specifici ambiti applicativi, riconoscendo la necessità di regole a livello globale (G. Finocchiaro, Regolare l’intelligenza artificiale).
La Cina si distingue dall’Europa e dagli Stati Uniti per un approccio multilivello – normativo, industriale e strategico – che combina controllo statale, promozione dell’innovazione tecnologica e proiezione geopolitica. Il modello cinese nel settore dell’intelligenza artificiale si caratterizza per una marcata ambivalenza. Da un lato, la politica sugli investimenti appare solida e orientata a promuovere lo sviluppo tecnologico. Dall’altro, l’impianto regolatorio, pur presentandosi talvolta come strumento di tutela dei diritti è in realtà funzionale a un controllo statale pervasivo. Il governo esercita un potere a monte e a valle: dal controllo sulle imprese e sulla ricerca scientifica, fino alla centralizzazione dei dati. Questi, una volta raccolti, alimentano bias sistemici e condizionano i prodotti finali. In questo processo, lo Stato si conferma il principale attore regolatore e beneficiario, assicurandosi contemporaneamente progresso tecnologico e consolidamento politico. Il controllo si realizza attraverso due strumenti principali: la raccolta massiva di dati e la censura algoritmica.
Entrambi, però, incidono negativamente sui diritti individuali e sulle libertà fondamentali. Le attività di machine learning, infatti utilizzano dati — pubblici, privati o coperti dal diritto d’autore — e prodotti dell’ingegno umano, generando rischi tangibili. L’intelligenza artificiale, operando tramite la “clusterizzazione” di persone, sensibilità e orientamenti, è in grado di produrre un impatto diretto su di esse, anche attraverso i propri errori: siano essi “allucinazioni”, errori sistemici o conseguenze dovute alla scarsa genuinità o incompletezza dei dati di addestramento.
In Cina, anche nei momenti in cui si alternano fasi di regolamentazione più intensa a periodi di maggiore apertura normativa, la logica di fondo resta invariata: l’obiettivo è rimuovere gli ostacoli solo nella misura in cui limitano l’innovazione, anche a costo di sacrificare la protezione dei diritti e delle libertà fondamentali. Il ruolo dello Stato rimane costante e pervasivo, l’intervento pubblico non si riduce, bensì si riconfigura come strumento di raccolta sistematica dei dati e di loro utilizzo politico, funzionale al consolidamento del potere centrale. In questo modo, la regolazione diventa parte integrante della strategia di controllo sociale, più che una garanzia di equilibrio tra innovazione e tutela dei diritti. L’approccio cinese può essere definito come una forma di “deregolazione funzionale”, volta a ridurre i vincoli burocratici e amministrativi nel settore dell’intelligenza artificiale, ma con un fine ben preciso: fissare e rispettare limiti e obiettivo stabiliti dallo Stato, che resta il principale beneficiario dello sviluppo tecnologico. L’approccio cinese privilegia l’efficienza e la rapidità di quest’ultimo rispetto alla tutela dei diritti individuali, collocandosi su un piano di sostanziale autoritarismo tecnologico, fondato sul controllo centralizzato dell’informazione e sull’utilizzo dell’AI a fini di governance.
Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0