Le proposte emendative del Parlamento europeo sull’Artificial Intelligence Act: percorsi di avanzamento o fase di stallo?

Il 1° giugno 2022 è scaduto il termine per la presentazione degli emendamenti al Regolamento sull’intelligenza artificiale, pubblicato il 21 aprile 2021. Sono stati presentati oltre tremila emendamenti, a conferma della centralità giuridica, sociale, etica ed economica che assume l’utilizzo di strumenti di IA. In attesa del voto della Commissione sul testo finale fissato il 26 o 27 ottobre, certificato da una votazione in plenaria il 9 novembre, diverse sono le divergenze (su tutte, la nozione di intelligenza artificiale) ma altrettanto numerose sono le convergenze sugli aspetti principali dell’Artificial Intelligence Act (trasparenza, responsabilità, sistemi di AI ad alto rischio, governance), che lascia auspicare un progressivo avvicinamento ad una regolazione esaustiva e chiara sull’utilizzo di sistemi di intelligenza artificiale da parte di pubblico e privato.

Dal 21 aprile 2021, giorno in cui la Commissione europea ha pubblicato una proposta per regolamentare gli strumenti di intelligenza artificiale nell’Unione, sono state numerose le tappe che hanno condotto alla presentazione, da parte di ciascun gruppo politico, di migliaia di emendamenti, la cui scadenza era fissata il 1° giugno 2022. A conferma, evidentemente, della centralità nel dibattito politico (e non solo) del ruolo degli strumenti di intelligenza artificiale (la proposta di Regolamento dell’AI è stata analizzata in un precedente Post).

Non potendosi, per evidenti ragioni, analizzare puntualmente i singoli emendamenti, si evidenzieranno i principali aspetti emersi dal Regolamento e contestualmente dalle modifiche proposte.

Il primo punto dal quale sono emerse evidenti differenze in sede politica attiene proprio alla definizione di intelligenza artificiale. Pur condividendosi, invero, che l’intelligenza artificiale sviluppata in Europa debba essere antropocentrica e affidabile e garantire i diritti fondamentali e i valori dell’Unione sanciti dai Trattati, emergono due prospettive radicalmente differenti sul punto.

A chi propone una definizione più ampia di intelligenza artificiale, cancellando le tecniche di AI contenute nell’allegato I del Regolamento per eliminare la necessità di continui aggiornamenti ed il rischio di lacune, vi è chi ritiene esemplifica queste tecniche di AI che utilizzano l’apprendimento ed il ragionamento (come, ad esempio, approcci di apprendimento automatico, compresi l’apprendimento supervisionato, nonché approcci basati sulla logica e approcci basati sulla conoscenza, compresi la rappresentazione della conoscenza). Allo stesso tempo, la regolamentazione non dovrebbe ostacolare, ma piuttosto sostenere l’innovazione e il contesto imprenditoriale. In questa prospettiva, viene introdotto un emendamento per il quale il quadro giuridico dell’Unione per l’AI dovrebbe rispettare le legislazioni settoriali esistenti e creare certezza del diritto evitando la duplicazione e ulteriori oneri amministrativi.

Per quanto riguarda l’ambito di applicazione, nelle proposte emendative viene sostenuto che gli obblighi di cui al presente regolamento vadano solo alle pratiche vietate, ai sistemi di AI ad alto rischio e a determinati sistemi di AI che richiedono trasparenza. In quanto tale, nessun sistema di AI dovrebbe essere escluso ex ante dalla definizione di “intelligenza artificiale” o attraverso l’esclusione di eccezioni per particolari tipi di sistemi di IA, compresa l’AI per finalità generali. Per tale motivo, gli emendamenti propongono diverse novità: a) l’introduzione del considerando 4-bis che ritiene indispensabile il rispetto dei principi di equità, responsabilità, trasparenza e rendicontabilità; l’introduzione del considerando 9-bis, per cui sarebbe opportuno garantire alcuni principi in tutti i sistemi di IA, come la trasparenza, il diritto a una spiegazione e il diritto di opposizione a una decisione, funzionali ad evitare discriminazioni e squilibri pregiudizievoli di potere e di informazione, ed inoltre per garantire il controllo e la supervisione e la conformità dimostrabile e soggetta a un monitoraggio continuo.

Estremamente interessanti sono gli emendamenti incentrati sulla governance degli strumenti di intelligenza artificiale – già sul banco delle proposte presentate dalla Commissione, come emerge dalla Comunicazione Digtal Compass, commentata in questo Post – che conduce alcuni gruppi parlamentari a rafforzare il ruolo del Comitato europeo per l’intelligenza artificiale, la cui funzione sarà quella di adottare posizioni su questioni derivanti dall’attuazione del Regolamento stesso. Tale comitato sarà presieduto dalla Commissione e composto dalle designate National Supervisory Authorities e dal European Data Protection Supervisor, e nelle modifiche proposte avrà un duplice ruolo: uno generale, per cui sarà uno degli organi con cui i portatori di interessi potranno dialoga per l’adozione di atti delegati volti alla modifica delle tecniche per l’utilizzo degli strumenti di AI; uno più specifico, in virtù del quale dovrà fornire orientamenti ai fornitori ed operatori di imprese che intendono sviluppare sistemi di AI ad alto rischio per la riduzione della produzione di rifiuti e del consumo di energia. Ciò consente un maggiore controllo democratico e controllo pubblico e una maggiore responsabilità, oltre a una maggiore trasparenza nei confronti del pubblico sull’utilizzo dei sistemi di intelligenza artificiale in settori sensibili che incidono sulla vita delle persone. Inoltre, gli utenti dei sistemi di AI ad alto rischio che adottano decisioni o assistono nell’adozione di decisioni che riguardano persone fisiche, dovrebbero informare queste ultime che sono soggette all’uso del sistema di AI ad alto rischio. Si tratta, in sintesi, di un approccio che continua a seguire le indicazioni fornite da un recente report ad opera della Agenzia Europea per i Diritti Fondamentali, commentato in un precedente Post.

Proprio con riguardo ai sistemi di AI ad alto rischio, che costituiscono l’oggetto principale del Regolamento, negli emendamenti vengono proposti diversi casi d’uso all’elenco dei sistemi di AI ad alto rischio. C’è in questo caso una grande attenzione al ruolo anche sociale dell’intelligenza artificiale, per cui i sistemi di AI utilizzati per influenzare o plasmare lo sviluppo dei minori dovrebbero essere considerati ad alto rischio. Inoltre, viene confermata ormai la tendenza in atto di utilizzare strumenti di intelligenza artificiale da parte dei partiti per influenzare i voti nelle elezioni locali, nazionali o europee e i sistemi di intelligenza artificiale utilizzati per conteggiare tali voti hanno il potenziale, influenzando un gran numero di cittadini dell’Unione, di incidere sul funzionamento stesso della nostra democrazia (i rapporti tra decisione politica ed utilizzo degli strumenti di intelligenza artificiale, anche con riferimento al quadro europeo, sono stati analizzati in un recente Post). Tra gli emendamenti emerge specificamente che a causa del loro potenziale di “trappola”, due tipi di sistemi di AI dovrebbero essere soggetti sia ai requisiti di trasparenza che ai requisiti di conformità dei sistemi di intelligenza artificiale ad alto rischio: a) i deep fake che rappresentano persone reali; b) i contenuti editoriali redatti dagli “Autori dell’AI”. In questo contesto, si sottolinea che nonostante le problematiche sottese ai sistemi di AI ad alto rischio, questi ultimi non sono vietati né da considerare come indesiderabili ma, al contrario, tali sistemi per essere accettati sia dal punto di vista giuridico, sia da quello etico-sociale, dovranno conformarsi ai requisiti di conformità del Regolamento al fine di risultare più affidabili e maggiormente attraenti sul mercato europeo.

Altro aspetto ampiamente analizzato ed approfondito nel percorso che dovrebbe portare all’approvazione del Regolamento riguarda la catena di responsabilità – già analizzati invero in un altro Post – ed invero nelle proposte emendative si cerca di chiarire alcuni aspetti. In particolare, si assiste al rafforzamento del livello di coerenza con il GDPR per ciò che attiene alla governance dei dati e, inoltre, all’eliminazione dell’eventuale base giuridica aggiuntiva per il trattamento dei dati personali. A ciò si aggiunga il chiarimento in virtù del quale le serie di dati “esenti da errori” dovrebbero essere un obiettivo generale da raggiungere nella massima misura possibile, e non un requisito preciso. Ulteriori proposte emendative tengono conto, inoltre, delle preoccupazioni manifestate dal settore industriale, con cui si cerca di riordinare la catena del valore dell’AI ed il regime delle responsabilità: in tal senso, sono stati chiariti i casi in cui le serie di dati sono in possesso degli utenti, quando il fornitore si limita a costruire l’architettura generale del sistema.

Come dimostra questa breve rassegna dei principali profili sui quali si sta discutendo in sede parlamentare, le questioni principali attengono – in continuità con quanto emerso nel Libro bianco sull’intelligenza artificiale, commentato in un altro Post – alla necessità di rendere trasparenti i processi decisionali ed a delineare un modello di responsabilità chiaro, tutto ciò in una prospettiva volta a definire l’affidabilità e la certezza giuridica introducendo una serie di principi su come debba essere utilizzata l’intelligenza artificiale in termini di requisiti e standard tecnici. La fase di stallo, soprattutto in queste fasi, è fisiologica ove si consideri la rilevanza dell’atto che dovrà essere approvato, ma è altrettanto vero che sono numerosi i passi in avanti che l’ordinamento sovranazionale – posto che diversi Stati membri hanno comunque sviluppato strategie ad hoc per un corretto utilizzo dell’AI, analizzati qui, qui e qui – sta compiendo al fine di chiarire l’applicazione di strumenti di AI che non collidano con i principi generali del diritto e che si muovano in una prospettiva socialmente ed eticamente accettabile.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale