Garanzia dei diritti fondamentali e uso degli strumenti di Intelligenza Artificiale

L’Agenzia Europea per i Diritti Fondamentali, facendo seguito a una iniziativa avviata dalla Commissione, ha svolto una indagine conoscitiva sull’uso degli strumenti di Intelligenza Artificiale nell’Unione Europea, per valutare l’impatto che il ricorso a essi esercita sulla garanzia di tali diritti, nonché il grado della considerazione dei diritti medesimi nell’impiego degli strumenti di IA. I risultati dell’indagine svelano uno scenario interessante

di Melania D’Angelosante

 

Recentemente l’Agenzia Europea per i Diritti Fondamentali ha pubblicato un Report che presenta casi concreti relativi al modo in cui gli Enti pubblici e privati stanno ricorrendo, nell’Unione europea, all’uso degli strumenti di Intelligenza Artificiale (IA).

Il Report rappresenta uno degli strumenti riconducibili alla azione intrapresa dalla Commissione dell’UE con la pubblicazione, nel febbraio 2020, del Libro Bianco sull’Intelligenza Artificiale nell’Unione. Qui si prefigura infatti lo scenario della disciplina, in ambito unionale, dell’uso dell’IA, evidenziando che la regolamentazione di riferimento dovrebbe essere edificata in sintonia con i principi e i valori su cui l’Unione si fonda, primo fra tutti la garanzia dei diritti umani e fondamentali.

A partire da questo ambito, il fulcro principale del Report consiste pertanto nella valutazione della considerazione dei diritti fondamentali nell’impiego degli strumenti di IA, nonché dell’impatto che il ricorso a essi esercita sulla garanzia di tali diritti, anche alla luce delle esigenze e delle sfide riconducibili alla gestione dell’emergenza sanitaria dovuta alla pandemia da Covid-19.

L’indagine si basa sulla acquisizione di informazioni presso più di 100 campioni, selezionati con criteri di equa distribuzione e omogeneità fra gli Stati membri dell’Ue, e consistenti in enti e stakeholders pubblici e privati. Essa riguarda prevalentemente i settori dei servizi sociali e sanitari, nonché della polizia predittiva, della pubblicità mirata, della protezione dei dati personali, della protezione dei consumatori e della realizzazione del diritto a una buona amministrazione.

Lo studio rivela che sia quanti utilizzano l’IA sia quanti ne regolano l’uso affermano di non conoscerne completamente il funzionamento. Ciò si riflette sulla incapacità degli apparati coinvolti di comunicare all’esterno come tali meccanismi operino, e quindi anche sulla incapacità degli utenti di accedere ad appropriate ed effettive forme di tutela dalle eventuali lesioni prodotte dall’impiego dell’IA.

La carenza di conoscenze riguarda anche il sistema degli apparati competenti alla supervisione del funzionamento dei meccanismi di IA. Questa lacuna è parte di un più ampio deficit di conoscenza riguardante il quadro normativo di riferimento, anche – e soprattutto – in ragione della sua opacità.

Lo studio rivela inoltre che il grado di consapevolezza delle possibili implicazioni dell’impiego degli strumenti di IA sulla garanzia dei diritti fondamentali non è adeguatamente sviluppato, concentrandosi prevalentemente – pur se ancora non sufficientemente – sugli aspetti tecnici, ad esempio al fine di ridurre il c.d. digital divide e quindi la discriminazione, e tralasciandone invece alcune importanti ricadute, come quelle sulla garanzia della dignità umana, dell’accesso alla giustizia, della protezione dei consumatori, della riservatezza, della protezione dei dati personali.

L’indagine rivela infine che l’uso dell’IA è in crescita, ma versa ancora in una fase iniziale; che il livello di automazione è variabile; che la gran parte delle decisioni automatizzate è soggetta a revisione/controlli realizzati in modalità tradizionale; e che uno dei principali limiti di contesto consiste nella maggiore velocità di evoluzione della tecnologia rispetto agli strumenti giuridici individuati per disciplinarne l’uso.

I limiti riscontrati inducono l’Agenzia a suggerire una maggiore coesione e integrazione fra gli studi sui diritti fondamentali e quelli sull’IA, anche al fine di consentire una regolazione e una applicazione più consapevoli degli strumenti di IA. La inducono infine a suggerire l’introduzione di una valutazione di impatto sui diritti fondamentali in via propedeutica all’uso di strumenti di IA e delle relative tecnologie.

I risultati e gli esiti dell’indagine suggeriscono qualche riflessione.

La prima riguarda la consistenza del deficit di conoscenza degli strumenti di Intelligenza Artificiale da parte degli stessi soggetti che ne fanno uso. Questa carenza determina, come si è visto, sia l’incapacità di tali soggetti di comunicare all’esterno i modi di operatività degli strumenti utilizzati, sia, conseguentemente, l’incapacità degli utenti ad accedere ad appropriate ed effettive forme di tutela dalle eventuali lesioni da essi prodotte.

Sorprende peraltro che il deficit si riferisca non solo ai profili tecnici strettamente intesi (a base informatica), ma anche a quelli di supporto, vale a dire agli strumenti giuridici che ne consentono l’applicazione: si fa riferimento al quadro normativo – incluso il sistema di distribuzione delle competenze da esso determinato-, in ragione della sua opacità, ma anche della maggiore velocità di evoluzione della tecnologia rispetto agli strumenti giuridici. Questa doppia declinazione determina, a sua volta, un inappropriato tasso di consapevolezza delle implicazioni dell’uso dell’IA sulla garanzia dei diritti fondamentali, il quale si riflette – a monte – sulla circostanza che tali diritti non siano adeguatamente considerati né nella fase della pianificazione né nella fase della applicazione dell’IA, nonché – a valle – sulle condizioni di pericolo e/o violazione che tale applicazione determina a carico dei diritti.

Alle azioni correttive suggerite dall’Agenzia (maggiore coesione e integrazione fra gli studi sui diritti fondamentali e quelli sull’IA, nonché valutazione di impatto sui diritti fondamentali in via propedeutica all’uso di strumenti di IA) si potrebbero pertanto aggiungere le seguenti: a) la semplificazione dei profili regolatori (con riferimento agli aspetti sia contenutistici sia procedurali), al fine di renderli meglio conoscibili e più prontamente adattabili alla evoluzione rapida della tecnologia, nonché per consentire che le integrazioni necessarie (come quelle per la protezione dei diritti fondamentali) si collochino in un contesto più adeguato; b) l’intensificazione degli studi sull’etica nell’uso dell’IA e la maggiore valorizzazione, in ambito sia informatico sia giuridico, dei risultati da essi prodotti.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.