Questo post è parte del “Punto di vista sull’uso strategico dell’intelligenza artificiale”.
Sinossi: Il Regolamento europeo sull’intelligenza artificiale mira a realizzare un delicato equilibrio tra la tutela dei diritti fondamentali e le esigenze di sviluppo dei settori tecnologicamente avanzati. L’approccio europeo, fondato su una classificazione dei rischi in livelli crescenti, introduce requisiti di sicurezza particolarmente stringenti. Tuttavia, la scelta di un sistema orizzontale che regola l’intelligenza artificiale nel suo complesso è stata oggetto di critiche concernenti il modello di sviluppo (o la sua assenza). L’attuazione di questo importante intervento normativo potrebbe richiedere un adeguamento (se non la ridefinizione) della policy complessiva dell’Unione europea.
Nella competizione globale tra Cina e Stati Uniti nel settore dell’intelligenza artificiale, l’Europa si trova indubbiamente in una posizione di ritardo. Certo, non mancano gli sforzi per cercare di ridurre questo divario attraverso investimenti mirati e una regolamentazione organica e uniforme. Questo approccio, che mira a coniugare progresso tecnologico, protezione dei diritti e sicurezza, aspira a rappresentare una “terza via”, rafforzando la cooperazione internazionale e facendo leva sul cosiddetto “effetto Bruxelles” (Si veda quanto scritto per l’Osservatorio da B. Carotti, Punti di vista: l’AI Act).
L’AI Act dell’Unione europea mira a integrare innovazione e tutela dei diritti, mediante un approccio basato sul rischio e la presenza di un corposo apparato regolatorio (a seconda dal livello di rischio), condito da standard etici, per quanto sia possibile associare etica e diritto (A. Italiano, Cos’è l’Artificial Intelligence Act e cosa prevede per l’AI). Esso introduce una definizione estremamente ampia di IA (non esente da critiche, per l’aderenza a un modello specifico e l’abbandono della definizione iniziale). L’entrata in vigore delle regole stabilite peri vari modelli di rischio è scaglionata, ma l’ordinamento è comunque già arricchito di un framework normativo che in alcuni casi già dispiega la sua forza (si veda quanto scritto per l’Osservatorio da L. Magni, AI Act: i diritti sono tutelati?). L’AI Act si propone non solo come regolamento tecnico, ma come strumento strategico per guidare, principalmente, l’introduzione dell’intelligenza artificiale nel mercato unico europeo.
In dettaglio, l’approccio graduato in base al rischio distingue gli ormai noti quattro modelli (si veda quanto scritto per l’Osservatorio da E. Schneider, IA Act e i sistemi di rischio: lungimiranza o nostalgia?):
Rischio minimo: la maggior parte dei sistemi di IA (es. filtri antispam, videogiochi) non è soggetta a obblighi specifici, ma le imprese possono adottare volontariamente codici di condotta.
Rischio legato alla trasparenza: strumenti come le chatbot devono chiarire agli utenti che stanno interagendo con una macchina; i contenuti generati dall’IA devono essere etichettati.
Rischio alto: applicazioni come software medici o sistemi per la selezione del personale devono rispettare requisiti stringenti (qualità dei dati, misure di mitigazione, sorveglianza umana, informazioni chiare agli utenti, ecc.).
Rischio inaccettabile: pratiche come i sistemi di “punteggio sociale” sono vietate in quanto contrarie ai diritti fondamentali.
Il processo di approvazione e l’entrata in vigore della normativa hanno suscitato, come in parte anticipato, numerose polemiche. Gli aspetti maggiormente critici riguardano il rapporto tra la normativa e i futuri sviluppi del settore, il possibile aggravio per le piccole e medie imprese, l’accentuazione di dinamiche burocratiche (G. Finocchiaro, Regolare l’intelligenza artificiale). Quarantaquattro aziende europee hanno richiesto un “stop the clock” per posticipare l’applicazione delle norme, ma tale richiesta è stata respinta dalla Commissione. Le critiche hanno toccato anche il piano politico e attraversato l’Oceano: gli Stati Uniti hanno giudicato la normativa europea un freno per le proprie imprese.
Se i modelli statunitensi e cinesi mostrano un approccio più flessibile, è proprio come conseguenza delle pressioni degli stakeholder. Anche Bruxelles, infine, ha tenuto conto di queste istanze, promuovendo la semplificazione normativa e il sostegno all’innovazione. In questo contesto, assume particolare rilevanza il recente ritiro della direttiva AI Liability (su cui si veda F. Niola, Responsabilità civile per l’AI: gli effetti del ritiro della proposta di direttiva) che mirava a regolamentare le responsabilità civili per gli incidenti causati dall’AI. Si segnala, inoltre, l’iniziativa politica promossa dalla Commissione che mira a una parziale revisione dell’AI Act per ridurre gli oneri di compliance delle piccole e medie imprese. Resta il dubbio che sia l’attuale clima generale a generare questi passi indietro, grandi o piccoli che siano, e che possa essere messo in dubbio l’assioma per cui una regolazione è necessaria, superando la concezione che essa freni l’innovazione (semmai, è vero il contrario.
Sul piano della governance, A gennaio 2024, la Commissione ha istituito l’Ufficio europeo per l’intelligenza artificiale, con il compito di favorire lo sviluppo e l’impiego di sistemi di IA affidabili. Esso si associa agli altri organismi di varia estrazione, tutti tesi a fornire un contributo basato sull’expertise e a coadiuvare l’attuazione del Regolamento – a testimonianza della sua complessità. Proprio sul versante applicativo, ma in stretta aderenza a quanto contenuto nell’articolato, il 10 luglio 2025 la Commissione ha pubblicato il Codice di buone pratiche, aprendo una nuova fase per l’adozione volontaria di misure conformi agli obblighi previsti dal Regolamento europeo. Il Codice, scritto da 13 esperti indipendenti, con il contributo di oltre 1.000 portatori di interesse, mira a facilitare la conformità alla legge sull’IA per finalità generali. Esso è suddiviso in tre capitoli: trasparenza (per documentare le informazioni da parte degli operatori); diritto d’autore (soluzioni concrete per rispettare la normativa e delineare un percorso su cui la giurisprudenza dovrà necessariamente confrontarsi); sicurezza e protezione (gestione di rischi sistemici, inclusi rischi per i diritti fondamentali, compresa la possibile perdita di controllo dei modelli).
La Commissione ribadisce che l’aderenza al Codice non costituisce la prova definitiva di conformità agli obblighi dell’AI Act, ma dovrebbe ridurre gli oneri amministrativi e aumentare la certezza giuridica. Contestualmente, sono previsti orientamenti della stessa Commissione volti a chiarire ulteriormente l’ambito di applicazione delle norme.
Se l’Unione europea ha scelto di disciplinare l’intelligenza artificiale, resta da interrogarsi circa la reale capacità di colmare il divario tecnologico con Cina e Stati Uniti. Da segnalare, in merito, che la strategia europea prevede piani di investimento mirati (G. Lusardi, L’AI Continent Action Plan: la strategia della Commissione Europea per il futuro dell’intelligenza artificiale in Europa): il piano AI Continent, in particolare, ha l’obiettivo di potenziare le iniziative in materia, articolandole in cinque settori strategici. Tra gli obiettivi rientrano, in questo senso, lo sviluppo di un’infrastruttura informatica su larga scala, l’ampliamento dell’accesso a dati di alta qualità, la diffusione dell’IA nei settori strategici, il rafforzamento delle competenze e la valorizzazione dei talenti, nonché la semplificazione delle procedure di attuazione dell’AI Act. La Commissione ha annunciato, al riguardo, un AI Act Service Desk volto a fornire alle imprese strumenti come linee guida, check-list di conformità e consulenza legale, per rendere comprensibile e facilmente applicabile il quadro normativo e aumentare la fiducia degli investitori. Per quanto concerne gli investimenti, oltre al programma settennale già in corso, è stato lanciato InvestAI, iniziativa volta a mobilitare 200 miliardi di euro, nonché un nuovo fondo europeo di 20 miliardi di euro per le gigafactory.
I programmi di investimento rappresentano un primo passo, ma probabilmente è necessaria anche una maggiore uniformità nelle regole di mercato — come evidenziato nel report sulla competitività di Mario Draghi (si veda quanto scritto per l’Osservatorio da A. Sola, Punti di vista. Crescita economica e coordinamento nel settore digitale: una lettura del Rapporto Draghi).
Questi elementi inducono a evidenziare l’intenzione europea di investire maggiori risorse e orientarsi, progressivamente, verso misure sempre meno restrittive (S. Goodger, G. Torchio, Regulating General Purpose AI in the EU: An Analysis of the AI Code of Practice). Un esempio emerge dal citato Codice di buone pratiche, dove il trattamento della cosiddetta “discriminazione illegale su larga scala” non è più considerato un rischio sistemico, da includere obbligatoriamente in ogni valutazione dei modelli (F. Fabbri, AI, come le Big Tech indeboliscono il codice di buone pratiche europeo). Tuttavia, questi interventi, che delineano un tentativo di ridurre la responsabilità in un ambito così sensibile, solleva inevitabilmente preoccupazioni (si veda la terza bozza del Codice di condotta dell’UE per i modelli di intelligenza artificiale: più flessibilità, ma non senza dubbi, 3/25), proprio nel momento in cui alcuni studiosi rilevano l’inadeguatezza dei criteri di rischio introdotti con l’AI Act (Taking AI Risks Seriously: a New Assessment Model for the AI Act).
Il modello europeo dovrebbe essere caratterizzato da una visione profondamente diversa, fondata sulla ricerca di un equilibrio tra innovazione e tutela dei diritti fondamentali. La deregolazione sembra sbilanciata, rispondendo alle esigenze delle start-up e delle grandi imprese del settore. Tuttavia, è necessario un intervento più accorto: la richiesta di deregolazione appare spesso come una forma di deresponsabilizzazione, o di mancata valutazione dei rischi futuri. La regolazione non rallenta, di per sé, l’innovazione, mentre persegue una finalità meritevole: la protezione dei dati, dei diritti d’autore, la prevenzione dei rischi. A ben vedere, il vero pericolo è un altro: la mancanza di regole e principi internazionali induce le imprese europee a operare con un “freno etico” che sembra mancare sia in Cina che negli Stati Uniti. Questo si traduce in uno svantaggio competitivo, con l’Unione europea che a trovarsi dinanzi a una scelta cruciale: mantenere la propria identità giuridica e di valori, fondata sull’avvicinamento dei popoli, la centralità della persona e dei diritti fondamentali, oppure snaturarsi, per competere sul piano dell’efficienza economica.
Il cosiddetto Brussels effect rimarrebbe nel limbo, soggetto a incertezze. Tuttavia, proprio su di esso dovrebbe farsi leva, rafforzando gli investimenti per creare un comparto di settore che rispetti e promuova valori e delle regole europee e non ceda a una rincorsa verso il basso, che nel nome del vantaggio economico svilisca la civiltà giuridica. Solo così l’Europa potrà davvero essere competitiva a livello internazionale e configurarsi come un modello diverso e più solido di quelli statunitense e cinese.
Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0