Una risoluzione del Parlamento europeo sull’uso dell’intelligenza artificiale nel diritto penale

Con la risoluzione del 6 ottobre 2021, il Parlamento europeo affronta il tema dell’utilizzo dell’intelligenza artificiale nel diritto penale. Il Parlamento riconosce il contributo positivo di determinati tipi di applicazioni di IA al lavoro delle autorità di contrasto e giudiziarie in tutta l’Unione; tuttavia, rileva pure che lo sviluppo dell’IA può comportare rischi enormi per i diritti fondamentali e le democrazie basate sullo Stato di diritto. Elenca, quindi, una serie di requisiti che questi sistemi debbono possedere perché possano essere lecitamente utilizzati.

Con la risoluzione del 6 ottobre 2021 (divisa in 36 punti e approvata con 377 voti favorevoli, 248 voti contrari e 62 astenuti), il Parlamento europeo affronta il tema dell’utilizzo dell’intelligenza artificiale nel diritto penale (e, più nel dettaglio, del suo utilizzo da parte delle autorità di polizia e giudiziarie).

Il Parlamento riconosce il contributo positivo di determinati tipi di applicazioni di IA al lavoro delle autorità di contrasto e giudiziarie in tutta l’Unione (cfr. punto 5); anzi, pur insistendo sul fatto che gli Stati membri devono garantire che gli individui, quando sottoposti all’utilizzo di siffatte applicazioni, siano informati, esorta le suddette autorità a identificare e valutare le aree in cui nuove soluzioni di Intelligenza Artificiale possano risultare vantaggiose (cfr. punto 18). Tuttavia, dichiara pure che lo sviluppo dell’IA può comportare rischi enormi per i diritti fondamentali e le democrazie basate sullo Stato di diritto (cfr. lett. A dei considerando).

In generale, il Parlamento afferma che l’utilizzo dell’IA (che non può in nessun caso nuocere alla integrità fisica degli esseri umani, né attribuire diritti o imporre obblighi giuridici agli individui –cfr. punto 12-) deve essere proibito se incompatibile con i diritti fondamentali; più nel dettaglio, ritiene essenziale che si appresti uno specifico quadro giuridico chiaro e preciso che sia capace di disciplinare le condizioni, le modalità e le conseguenze dell’utilizzo degli strumenti di IA nei settori dell’attività di contrasto e giudiziario, nonché i diritti delle persone interessate e le procedure (efficaci e facilmente accessibili) di reclamo e di ricorso (“anche per via giudiziaria” -cfr. punto 14-). Le soluzioni di IA, si legge, devono rispettare appieno i princìpi di “dignità umana, libertà di movimento, presunzione di innocenza e diritto di difesa, compreso il diritto di non rispondere, libertà di espressione e informazione, libertà di riunione e associazione, uguaglianza dinanzi alla legge, principio dell’eguaglianza delle armi e diritto a un ricorso effettivo e a un processo equo, conformemente alla Carta e alla Convenzione europea dei diritti dell’uomo” (cfr. punto 2).

In quest’ottica, ritiene che lo sviluppo, la diffusione e l’utilizzo di questi strumenti debbano essere assoggettati (da parte delle autorità preposte alla protezione dei dati e dalle agenzie per i diritti fondamentali) a una previa valutazione dei rischi e a una rigorosa verifica ex ante della necessità e della proporzionalità (cfr. punto 20). Da ciò, precisa, dipende anche la fiducia che i cittadini riporranno nell’utilizzo dell’IA in questi settori (fiducia che risulta condizionata anche dalle caratteristiche possedute dallo strumento sviluppato/utilizzato, il quale deve essere sicuro, solido e adatto allo scopo previsto, rispettoso dei principi di equità, minimizzazione dei dati, responsabilità, trasparenza, non discriminazione e spiegabilità –cfr. punto 4-).

Sottolinea, poi, che gli aspetti legati alla sicurezza e alla protezione dei sistemi di IA utilizzati devono essere valutati con attenzione per prevenire le conseguenze potenzialmente catastrofiche di attacchi dolosi (cfr. punto 11). In quest’ottica, invita le autorità di contrasto e giudiziarie a utilizzare esclusivamente applicazioni di IA che rispettino il principio della tutela della vita privata e della protezione dei dati sin dalla progettazione (e, a questo ultimo proposito, nel ricordare a quali condizioni il trattamento dei dati possa dirsi lecito e corretto, afferma che le norme sulla protezione dei dati definite dall’UE per l’attività di contrasto costituiscono la base per qualunque futura regolamentazione dell’IA per l’impiego di attività di contrasto e nel settore giudiziario -cfr. punto 1-).

In più parti, rileva l’importanza di evitare che l’uso di applicazioni basate sull’IA, comportando distorsioni “intrinseche”, amplifichi le discriminazioni esistenti (in particolare, nei confronti delle persone che appartengono a determinate minoranze tecniche o comunità razziali) e diventi fattore di disuguaglianza, frattura sociale o esclusione (cfr. punti 8, 9 e 10; sulle discriminazioni e diseguaglianze che l’IA può comportare, si vd. il libro di E. Caterini, recensito qui).

Dunque, precisato che molte tecnologie di identificazione basate su algoritmi commettono un numero sproporzionato di errori di identificazione e di classificazione, esso afferma come non sia opportuno riporre troppa fiducia nella natura apparentemente oggettiva e scientifica degli strumenti di IA (cfr. punto 15) ed evidenzia quanto sia importante a) che i team che progettano, sviluppano, testano, eseguono la manutenzione, diffondono e forniscono tali sistemi di IA per le attività di contrasto e giudiziarie siano interdisciplinari e rispecchino, ove possibile, la diversità della società in generale; b) che sia assicurata una adeguata formazione dei decisori, affinché gli stessi siano consci delle (e sappiano gestire le) distorsioni che gli strumenti utilizzati possono potenzialmente generare, quando utilizzati; c) che gli Stati membri promuovano politiche contro la discriminazione ed elaborino piani d’azione nazionali contro il razzismo nel settore delle attività di polizia e nel sistema giudiziario, posto che “l’inclusione nelle serie di dati in materia di addestramento dei sistemi di IA di casi di razzismo da parte delle forze di polizia nell’adempimento dei propri doveri comporterà inevitabilmente distorsioni di natura razzista nei risultati, nei punteggi e nelle raccomandazioni basati sull’IA” (cfr. punti 22 e 23).

Sempre al fine di evitare le discriminazioni, il Parlamento si oppone, poi, all’utilizzo dell’IA da parte delle autorità di contrasto per fare previsioni sui comportamenti degli individui o di gruppi sulla base di dati storici e condotte precedenti, dell’appartenenza a un gruppo, l’ubicazione o qualunque altra caratteristica al fine di identificare le persone che potrebbero commettere un reato (cd. polizia predittiva, già in uso -non senza problemi- in alcune città degli Stati Uniti d’America e del Canada, cfr. punto 24).

In vari punti, il Parlamento, sulla falsariga di quanto già evidenziato in altre occasioni, sottolinea l’importanza della supervisione umana (vd. sul punto la risoluzione con cui ha esortato la Commissione ad adottare misure atte a garantire, nel caso di processi decisionali automatizzati, la tutela dei consumatori e la libera circolazione dei beni e dei servizi all’interno del mercato interno dell’UE, commentata qui): ritiene, ad esempio, che sia necessario un controllo umano specifico a monte dell’utilizzo di determinate applicazioni critiche (cfr. punto 11); afferma, poi, che la decisione, nei contesti giudiziari o di contrasto, qualora produca effetti giuridici o analoghi, debba essere sempre assunta da un essere umano. Chiede in particolare che siano mantenute la competenza esclusiva dei giudici e l’adozione di decisioni caso per caso, oltre che sia introdotto un divieto sull’uso dell’IA e delle relative tecnologie per l’emanazione delle decisioni giudiziarie (cfr. punto 16). In tal senso, si è di recente pronunciata anche la nostra Ministra della giustizia Marta Cartabia, la quale, con riguardo al processo, ha sottolineato che il controllo umano è garanzia di decisioni umane e che l’intelligenza artificiale può essere un prezioso strumento a supporto dell’attività del giudice, ma non deve mai diventare un suo sostituto. La posizione appare simile a quella assunta sull’argomento dal giudice amministrativo nostrano, il quale, con riferimento al procedimento amministrativo, di recente (invero alla luce dell’art. 22 del regolamento generale sulla protezione dei dati) ha sottolineato che nel processo decisionale automatizzato deve comunque esistere un contributo umano che sia capace di controllare, validare ovvero smentire la decisione automatica (cd. principio di non esclusività della decisione algoritmica, di cui abbiamo dato conto qui).

Di particolare rilievo appare poi la parte in cui la risoluzione allude espressamente alla necessità che venga istituito un regime chiaro ed equo per attribuire (comunque a una persona fisica o giuridica) la responsabilità giuridica delle potenziali conseguenze negative prodotte da tali tecnologie digitali avanzate (cfr. punto 13; del tema della responsabilità a fronte di sistemi di IA, abbiamo già parlato qui).

Ancora, la risoluzione precisa che, per garantire il rispetto dei diritti fondamentali dell’uomo, gli algoritmi devono essere trasparenti, tracciabili e sufficientemente documentati (cfr. punti 17 e 19); il rischio, altrimenti, è che, tra le altre cose, essi abbiano un impatto negativo sul diritto alla difesa degli indagati, posto che li metterebbero in difficoltà nell’ottenere informazioni significative sul loro funzionamento e nel confutare i risultati in tribunale.

Alla luce di tali considerazioni, il Parlamento chiede un audit obbligatorio periodico di tutti i sistemi di IA utilizzati dalle autorità di contrasto e dal potere giudiziario nei casi in cui possa influire in maniera significativa sulla vita delle persone, da parte di un’autorità indipendente, per testare e valutare i sistemi di algoritmi, il contesto, le finalità, la precisione, le prestazioni e la portata una volta che questi siano operativi, al fine di individuare, indagare, diagnosticare e rettificare eventuali effetti indesiderati e negativi e assicurare che i sistemi di IA funzionino come previsto (cfr. punto 21).

E, sempre nell’ottica di chiedere una maggiore trasparenza generale per dar vita a una comprensione globale circa l’utilizzo delle applicazioni di IA nell’Unione, invita gli Stati membri a fornire informazioni complete sugli strumenti utilizzati dalle proprie autorità di contrasto e giudiziarie, sulle tipologie di strumenti utilizzati, sulle finalità per cui sono utilizzati, sui tipi di reati cui si applicano e i nomi delle società o organizzazioni che hanno sviluppato tali strumenti; chiede quindi alla Commissione di redigere e aggiornare le informazioni in un’unica sede e la invita a pubblicare e aggiornare informazioni sull’utilizzo dell’IA da parte delle agenzie dell’Unione incaricate delle attività di contrasto e giudiziarie.

Nella parte finale del documento, la risoluzione attenziona i sistemi di riconoscimento facciale, la cui diffusione da parte delle autorità di contrasto ritiene debba essere limitata a finalità “chiaramente giustificate nel pieno rispetto dei principi di proporzionalità e di necessità e della legge vigente” e precisa che, in ogni caso, l’utilizzo della tecnologia di riconoscimento facciale, oltre che essere conforme ai requisiti di minimizzazione, precisione limite di conservazione, sicurezza e affidabilità dei dati, deve apparire lecito, equo e trasparente, capace di perseguire una “finalità specifica, esplicita e legittima chiaramente definita nel diritto degli Stati membri o dell’Unione” (di questi sistemi abbiamo più volte parlato in questo osservatorio; si v. gli ultimi post qui e qui).

Consequenzialmente, chiede una moratoria sulla diffusione dei sistemi di riconoscimento facciale per le attività di contrasto con funzione di identificazione (a meno che non siano usate strettamente ai fini dell’identificazione delle vittime di reati), finché “le norme tecniche non possano essere considerate pienamente conformi con i diritti fondamentali, i risultati ottenuti siano privi di distorsioni e non discriminatori, il quadro giuridico fornisca salvaguardie rigorose contro l’utilizzo improprio e un attento controllo democratico e adeguata vigilanza, e vi sia la prova empirica della necessità e proporzionalità della diffusione di tali tecnologie”.

Si tratta di un tema delicato, che ha suscitato numerosi dibattiti in vari Paesi del mondo e di recente ha spinto anche l’ONU a intervenire: l’Organizzazione, tramite il suo Alto commissario per i diritti umani, ha infatti chiesto uno stop (recte, una sospensione dell’) all’utilizzo delle tecnologie di riconoscimento facciale e altri sistemi di sorveglianza.

Il Parlamento europeo esprime, poi, profonda preoccupazione per l’utilizzo di database privati di riconoscimento facciale da parte delle autorità di contrasto e dei servizi di intelligence, come Clearview AI (di cui abbiamo parlato qui e qui), e invita gli Stati membri a obbligare le autorità di contrasto a indicare se stanno utilizzando tecnologie di questo tipo, chiedendo un divieto sull’utilizzo di database privati di riconoscimento facciale per le attività di questo tipo.

Ancora, rilevato che l’uso dei dati biometrici è correlato in senso più ampio al principio di dignità umana, precisa che l’utilizzo e la raccolta di dati biometrici per finalità di identificazione a distanza, ad esempio attraverso il riconoscimento facciale in luoghi pubblici, possono presentare rischi specifici per i diritti fondamentali. Su queste basi, invita la Commissione, tramite strumenti legislativi e non legislativi (e, ove necessario, mediante procedure d’infrazione), a introdurre il divieto di trattamento dei dati biometrici, comprese le immagini facciali, per finalità di applicazione della legge, tale da determinare sorveglianza di massa negli spazi accessibili al pubblico, e a interrompere il finanziamento della ricerca o diffusione della biometrica o di programmi che potrebbero portare alla sorveglianza di massa indiscriminata nei luoghi pubblici; sottolinea, in questo contesto, che andrebbe prestata particolare attenzione e dovrebbe essere applicato un quadro rigoroso all’utilizzo dei droni nelle operazioni di polizia.

Il Parlamento esprime, così, “grande preoccupazione” nel prendere atto del potenziale di determinate tecnologie di IA impiegate nel settore delle attività di contrasto per la sorveglianza di massa e parla di una “esigenza giuridica” di prevenire siffatta sorveglianza e di vietare l’uso delle applicazioni che potrebbero facilitarla, precisando che l’UE non può seguire l’approccio (che interferisce in modo sproporzionato con i diritti fondamentali) adottato sul punto da alcuni paesi terzi (cfr. punti 6 e 7; sull’argomento, si v., il post -pubblicato qui– in cui si dà conto di “Argo”, un nuovo progetto di videosorveglianza elaborato dal Comune di Torino, che introduce nuove forme di sorveglianza cittadina di massa). Posto che la minaccia di una sorveglianza così penetrante può inibire anche i comportamenti leciti dei singoli cittadini (un sistema di questo tipo può infatti indurre le persone a non partecipare ad esempio a dimostrazioni o a scioperi pacifici), sembra quindi che l’Unione voglia distinguersi nettamente dagli Stati totalitari che impiegano queste tecnologie con il fine precipuo di reprimere il dissenso.

Nella medesima ottica, si pone a favore del divieto del sistema di “scoring” su larga scala dei cittadini, osservando che qualsiasi forma di “citizen scoring” normativo su larga scala da parte delle autorità pubbliche non può essere considerato conforme ai diritti fondamentali (iniziativa, come noto, portata avanti dal governo cinese).

In conclusione, il Parlamento chiede all’Agenzia per i diritti fondamentali dell’UE, in collaborazione con il Comitato europeo per la protezione dei dati e il Garante europeo della protezione dei dati, di elaborare orientamenti, raccomandazioni e buone pratiche completi al fine di precisare ulteriormente i criteri e le condizioni per lo sviluppo, l’uso e la diffusione di applicazioni e soluzioni di IA per l’uso da parte delle autorità di contrasto e giudiziarie. Contestualmente, si impegna a condurre uno studio sull’attuazione della direttiva sulla protezione dei dati (Direttiva (UE) 2016/680 del Parlamento europeo e del Consiglio, del 27 aprile 2016), al fine di stabilire in che modo la protezione dei dati personali è stata garantita nelle attività di trattamento da parte delle autorità di contrasto e giudiziarie, in particolare nelle fasi di sviluppo e diffusione delle nuove tecnologie, e invita la Commissione a valutare se sia necessario adottare una specifica azione legislativa volta a precisare ulteriormente i suddetti criteri e le suddette condizioni.

In tal modo, la risoluzione (che, stando a quanto affermato dal deputato Petar Vitanov, costituisce una grande vittoria per tutti i cittadini europei) evidenzia come l’IA non possa essere considerata fine a se stessa, ma debba semmai essere trattata come uno strumento posto al servizio dei singoli, capace di accrescere il benessere degli esseri umani, le capacità umane e la sicurezza; la tecnologia dell’intelligenza artificiale, stando a quanto emerge dalla risoluzione, deve essere sviluppata mettendo al centro le persone: solo così potrà essere degna della fiducia dei cittadini e potrà porsi davvero al loro servizio.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale