Alla ricerca di un equilibrio tra standard tecnici e diritti fondamentali nel quadro dell’A.I. Act

Il ricorso a norme tecniche per integrare, e spesso rendere operative, disposizioni contenute in atti vincolanti, come l’A.I. Act, offre indubbi vantaggi in un’ottica di co-regolazione, esponendo al contempo a una serie di implicazioni per la tutela dei diritti fondamentali. Proprio a tali rischi intende rispondere il considerando 121 dell’A.I. Act.  

 

Il regolamento (UE) 2024/1689, A.I. Act (sul tema, B. Carotti, Punti di vista: l’AI Act) “stabilisce regole armonizzate sull’intelligenza artificiale”(A. Volpato, Il ruolo delle norme armonizzate nell’attuazione del regolamento sull’intelligenza artificiale) avvalendosi di orientamenti volontari, emanati da organismi di normazione riconosciuti, per dettare specifici standard tecnici che i sistemi di intelligenza artificiale devono rispettare. Trattasi di un elemento chiave per dimostrare il raggiungimento di un determinato livello qualitativo, di sicurezza e di affidabilità tale da consentire a un prodotto o servizio di circolare nel mercato europeo, previa apposizione del marchio «CE». 

L’A.I. Act si colloca quindi nel solco del New Legislative Framework (NLF), (F. Ferri, L’Unione europea e la nuova disciplina sull’intelligenza artificiale: questioni e prospettive) accogliendo una tecnica legislativa che apre uno spazio di co-regolazione (O. Pollicino, Co-regolazione: il nuovo approccio Ue alla regolamentazione digitale; N. Maccabiani, Co-regolamentazione, nuove tecnologie e diritti fondamentali: questioni di forma e di sostanza; G. Mobilio, L’intelligenza artificiale e i rischi di una “disruption” della regolamentazione giuridica) anche in materia di intelligenza artificiale, al fine di impedire che gli Stati si sostituiscano totalmente ai privati nella produzione di regole tecniche. Infatti, in materie ad alta competenza tecnica, come l’intelligenza artificiale, la Commissione Europea tende a fissare requisiti generali e indicazioni di principio, demandando alle organizzazioni europee di normazione (OEN) l’adozione di norme di dettaglio 

Se le regole armonizzate emanate dalle OEN vengono ritenute dalla Commissione Europea adeguate all’atto di armonizzazione da essa stessa adottato (nel nostro caso, l’A.I. Act), si procede con la loro pubblicazione in Gazzetta Ufficiale. Da quel momento le regole armonizzate entrano nell’ordinamento europeo ed assumono l’effetto desiderato: consentire ai fornitori che le osservano di dimostrare che i loro prodotti o servizi sono conformi al diritto dell’UE, e, nel caso di specie, ai requisiti dell’A.I. Act 

Tale approccio, oltre ad aver apportato notevoli benefici all’integrazione del mercato europeo, ha implementato strumenti di collaborazione pubblico – privata che sollevano il legislatore europeo dall’arduo compito di stabilire regole tecniche e settoriali attraverso gli strumenti tradizionali, spesso insoddisfacenti (A. Pardi, Pubblico e privato nell’AI Act: la convivenza è tollerabile?).  

È anche vero, d’altra parte, che il ricorso a tale tecnica legislativa ha sollevato molteplici incertezze, soprattutto in relazione al suo utilizzo nell’A.I. Act ( S. De Vries, O. Kanevskaia, R. De Jager, Internal market 3.0: The Old “New Approach” for Harmonising AI Regulation).  

È stata rilevata una carenza di legittimazione nei processi di standardizzazione tecnica e una limitata partecipazione, trasparenza e accessibilità (V. A. Schmidt, Democracy and Legitimacy in the European Union Revisited: Input, Output and ‘Throughput’). 

Illegittima – o quantomeno esorbitante – appare anche la delega di potere normativo che la Commissione Europea attribuisce ai soggetti privati, la quale, più che integrativa, risulta discrezionale (M.E. Bartoloni, La regolamentazione privata nel sistema costituzionale dell’Unione europea. Riflessioni sulla disciplina relativa al settore dell’innovazione tecnologica). Tali timori assumono particolare rilevanza in un contesto come quello dell’intelligenza artificiale, ove una delega eccessiva di potere non rappresenta una mera questione tecnica, poiché legiferare sull’A.I. implica decisioni tanto normative quanto etiche e valoriali, bilanciando valori contrastanti che richiedono un dibattito politico ad ampio spettro per giungere ad una sintesi condivisa dall’intera collettività e non solo dai soggetti privati direttamente coinvolti (M. Ebers, V.R.S. Hoch, F. Rosenkranz, H. Ruschemeier, B. Steinrotter, The European Commission’s Proposal for an Artificial Intelligence Act – A critical Assessment by Members of the Robotic and AI Law Society (RAILS) 

Un tentativo di scongiurare tali rischi è rinvenibile nel considerando 121 dell’A.I. Act nella parte in cui mappa i possibili interventi della Commissione Europea in assenza di riferimenti pertinenti a norme armonizzate. Infatti, in specifici casi previsti dal regolamento, la Commissione può emanare atti di esecuzione e specifiche comuni che fungono da extrema ratio per agevolare l’obbligo del fornitore di conformarsi ai requisiti dell’A.I. Act. La Commissione può agire, previa consultazione del forum consultivo, quando la richiesta di normazione non è stata accettata da alcuna delle OEN, quando le norme armonizzate non sono conformi alla richiesta o vi sono ritardi nell’adozione di una norma armonizzata appropriata. Soprattutto, ai sensi del considerando 121, la Commissione può procedere con specifiche comuni nei casi in cui le norme armonizzate non tengano sufficientemente conto delle preoccupazioni in materia di diritti fondamentali 

Grazie a tale potere di intervento il Regolamento europeo riesce a mantenere salda la tutela dei diritti fondamentali, suo principio guida, anche a fronte delle preoccupazioni evidenziate.  

In tal modo l’UE – consapevole dell’importanza della co-regolazione (A. Pardi, Pubblico e privato nell’AI Act: la convivenza è tollerabile?) – tenta di perseguire un equilibrio complesso: non rinunciare all’apporto degli organismi privati di regolazione per timore di possibili derive di strapotere, ma avvalersi di tali organismi implementando il monitoraggio sulle scelte loro affidate, sì da ottenere una rappresentanza di tutti i portatori di interessi nell’elaborazione delle norme. Una simile garanzia preventiva risulta determinante, soprattutto in un ambito come quello dell’intelligenza artificiale, in cui i potenziali rischi travalicano la dimensione individuale e rischiano di incidere sull’intera collettività. 

 

Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0