Eunomia e la proposta di Regolamento europeo sull’AI: la regolazione ispirata al buon governo

Eunomia significa primato della legalità e buon governo. Due pilastri che caratterizzano la proposta di Regolamento dell’intelligenza artificiale elaborata dalla Commissione europea. Opposti rispetto all’approccio regolatorio finora seguito da Stati Uniti e Cina, i quali invece hanno privilegiato un sistema di regole soft. Un tentativo di Regolamento ambizioso che mira ad instaurare un nuovo costituzionalismo digitale in grado di bilanciare i rischi con il rispetto dei comuni valori europei contenuti nel Bill of rights. L’obiettivo è trasformare l’Europa in un hub globale per un’intelligenza artificiale affidabile e “umana”. Per fare ciò si punta sull’impiego della tecnica della marcatura e su un assetto di governance stabile. Un diritto insomma cucito su misura sull’oggetto che vuole andare a disciplinare.

 

La parola greca eunomia deriva dalla combinazione di eu e nomos, e letteralmente può essere tradotta in buona legge o meglio buon governo. Tale concetto risale a Sparta: nel 669 a.C., trovandosi in una situazione di disordine dovuta alla seconda guerra messenica, la città-stato matura la sua preferenza per un sistema fondato sulle leggi. Lo stesso impianto che aveva in mente Solone di Atene. Secondo la riflessione di allora, lo stato di disordine era un pericolo perché poteva essere causa – come poi è avvenuto a Corinto – dell’ascesa dei tiranni, ossia il dominio di un singolo che senza una legittimazione formale assume il potere nella citta. Da qui il termine eunomia è passato ad indicare la necessità di riordinare l’assetto di governo secondo un sistema legale predefinito, definire le competenze tra i diversi organi, consentire la leale cooperazione nell’interesse dello stato. Se Solone in un primo momento fallì nel suo obiettivo, a Sparta l’eunomia ebbe successo, un successo dal quale dipendeva l’esistenza stessa della città.

Appare paradossale che – per riflettere su una nuova frontiera dell’IA, la rivoluzione dei tempi futuri – sia utile richiamare alla mente addirittura Sparta e le istituzioni degli spartiati. Eppure, a pensarci bene, gli stessi rischi di allora sono presenti oggi rispetto alla prospettiva della digitalizzazione. L’IA naviga giuridicamente in un mare di disordine, ciò è fonte di rischi e pericoli, si affacciano dei “tiranni” le grandi piattaforme digitali che detengono migliaia di big data, che hanno la capacità di conformare la vita dei cittadini senza una chiara legittimazione, senza un vero ed efficace consenso preventivo offerto dagli interessati. Ne consegue che bisogna riordinare l’assetto normativo e per farlo serve il nomos, che oggi chiamiamo regolazione, da cui dipende l’effettività del buon governo e della tutela degli utenti. Come ha detto la presidente Ursula von der Leyen durante il discorso sullo stato dell’Unione nel 2020 l’AI ci aprirà nuovi mondi, ma questi mondi hanno anche bisogno di regole.

Muovendo dal libro bianco sull’intelligenza artificiale. Un approccio europeo all’eccellenza e alla fiducia (segnalato QUI), la Commissione ha inaugurato in questi mesi una grande stagione costituente, ponendo le basi per un significativo sforzo regolatorio funzionale all’aumento degli investimenti e dell’innovazione nello spazio europeo. Oltre al Digital Services Act e al Digital Market Act, è stato elaborata una articolata proposta di Regolamento dell’AI (del 21 aprile 2021, COM(2021) 206 final). Come riferito nel Memorandum di accompagnamento «l’obiettivo principale della proposta è garantire il corretto funzionamento del mercato interno stabilendo norme armonizzate, in particolare sullo sviluppo, l’immissione sul mercato dell’Unione e l’uso di prodotti e servizi che utilizzano tecnologie di IA o forniti come IA autonoma di sistemi». La filosofia di una digitalizzazione centrata sull’uomo è condivisa anche da altre organizzazioni internazionali, come l’indagine del Consiglio d’Europa sul legal framework dell’AI sta a dimostrare.

Fondata sui comuni valori europei del Bill of rights, la proposta bilancia benefici e rischi per la salute dei consumatori e per i diritti fondamentali. Si tratta di un approccio regolamentare che nasce sul campo, calato dall’alto, e non scaturisce dal procedimento di assemblea. Al centro è posta la misurazione del rischio – un sistema risk based, appunto – secondo uno specifico livello di classificazione. L’AI va trattata come una merce pericolosa, è necessaria per la società digitale, ma non è aliena da pericoli. Perché il rischio sia normativamente accettabile deve essere calcolato secondo un modello di mediazione giuridica improntato alla tollerabilità: se l’algoritmo, ad esempio, serve ad attribuire credito sociale è reputato ad alto rischio ed è dunque vietato, altrimenti il rischio può essere minimizzato mediante alcune restrizioni spesso legate ad obblighi di trasparenza.

Sebbene siano numerosi gli aspetti su cui valga la pena soffermarsi attentamente, in questa sede pare opportuno concentrarsi intanto su tre profili. Innanzitutto, la proposta della Commissione di regolazione del machine learning rappresenta un rilevante esperimento globale, in cui la centralità del “pacchetto AI” è funzionale a trasformare l’Europa in un hub globale per un’intelligenza artificiale affidabile e “umana”. Nel rispetto di questa prospettiva, infatti, la proposta è accompagnata da un piano coordinato con gli Stati membri volto a rafforzare contestualmente gli investimenti e l’innovazione nel settore in tutta Europa. Trova così conferma l’intento della Commissione di presentare un progetto di grande portata per regolare all’interno di un unico quadro giuridico ciò che finora è stato considerato dai più ingovernabile. Sfida ambiziosa che solleva un inevitabile steccato rispetto agli altri, gli ordinamenti statunitense e cinese che, al contrario, hanno finora optato per un approccio di laissez faire.

Da una logica di intervento pubblico frammentario e settoriale, avente ad oggetto singoli usi o specifiche tecnologie, si passa dunque ad un intervento regolatorio di portata generale. Proprio perché così imponente, la prospettiva non può che essere de jure condendo, giacché saranno necessari almeno due o tre anni prima che la proposta diventi legislazione dal momento che il negoziato è ancora agli inizi. Ci troviamo in sostanza all’inizio di un lungo percorso in cui nessuno dei player globali intende compiere passi falsi.

Il secondo profilo da evidenziare sin d’ora riguarda l’impiego della tecnica della marcatura, un sistema già ampiamente sperimentato nel settore commerciale con cui si vorrebbe regolare lasciando il controllo a monte ai privati per riservare a valle all’autorità pubblica unicamente controlli a campione. La marcatura CE serve, difatti, ad indicare la conformità di un prodotto ai requisiti imposti dalla normativa dell’Unione europea. Per comprenderne il funzionamento di base basti dire che l’apposizione della marcatura a un sistema di AI ad alto rischio richiede il rispetto da parte del fornitore dei seguenti passaggi procedurali: a) determinare se il sistema di machine learning messo sul mercato è classificato ad alto rischio in base alle disposizioni regolamentari; b) garantire che la progettazione, lo sviluppo e il sistema di gestione della qualità siano conformi alla normativa; c) attivare una procedura di valutazione della conformità volta a valutare e dimostrare la conformità del sistema secondo un modello di autocertificazione e di auditing privato; d) apporre la marcatura al sistema firmando una dichiarazione di conformità; e) immettere il software sul mercato. La funzione del marchio CE è quella di tutelare interessi pubblici, come la salute e la sicurezza degli utilizzatori dei prodotti, appartenenti ad una determinata tipologia, assicurando che essi siano conformi a tutte le disposizioni sovranazionali che prevedono il loro utilizzo, così che la marcatura CE non funge da marchio di qualità o d’origine, ma costituisce un puro marchio amministrativo, che segnala che il prodotto marcato può circolare liberamente nel mercato unico europeo.

Il terzo profilo riguarda l’assetto di governance. Le norme sono stabili, poiché il regolamento è dotato di diretta applicabilità ed efficacia diretta, e sono in grado di superare le incertezze e i mosaici di norme nazionali, ma non sono prescrittive fino in fondo. Per garantire che i sistemi di gestione dei rischi siano resi più flessibili, agili e adattivi per far fronte alla velocità di innovazione e trasformazione in atto rispetto agli approcci e ai modi di pensare tradizionali, le regole europee sono basate su principi, ma le stesse possono essere integrate mediante atti delegati, potendo così mutare nel tempo come in un processo dinamico. A fronte di ciò, l’attuazione amministrativa è lasciata alla combinazione e alla cooperazione tra livello europeo e autorità nazionali, senza abbandonare il principio di sussidiarietà. Il Board per l’intelligenza artificiale è chiamato a difendere un approccio comune, condividendo best practices, sviluppando pratiche amministrative uniformi, fornendo opinioni, linee guida o raccomandazioni, nonché standard armonizzati e specifiche tecniche in tema di AI. Mentre alle autorità nazionali, responsabili dell’applicazione e dell’attuazione del Regolamento a livello statale, è lasciato il compito di supervisione del sistema e di vigilanza sugli organismi di valutazione della conformità.

È indubbio che con la proposta di Regolamento sull’AI si compia un salto innovativo avente un forte impatto sulle big tech. Si prende atto che la tutela da accordare ai diritti fondamentali, che possono essere pregiudicati dal processo di digitalizzazione, non può essere garantita da un sistema che si autoregola e che non assicuri l’utilità sociale. L’AI deve essere affidabile, ingenerare fiducia e sicurezza nei consumatori, ed essere incentrata sulla tutela della persona secondo il concetto kantiano dell’uomo come fine e non come mezzo. Sintetizzato così, l’approccio europeo è emblematico perché fondato su un’architettura robusta, elegante e chiara con cui si intende attirare investimenti senza sospendere la tutela dei valori e dei diritti fondamentali. Che bilancia l’interesse alla ricerca con la salvaguardia della rule of law, in funzione della certezza e della prevedibilità per gli operatori. Un impianto solenne insomma proprio come la divinità Eunomia, figlia di Zeus e di Temi (dea della legge e del diritto, da cui nascono le tre Ore), personificazione della legalità e del buon governo.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale