Quali regole per le nuove tecnologie di riconoscimento facciale? La Corte di giustizia di Cardiff si pronuncia per la legittimità dell’uso di tecniche di Automated Facial Recognition da parte della Polizia del Galles

La Corte di Cardiff (UK) si è recentemente pronunciata sull’utilizzabilità di tecniche di riconoscimento facciale da parte della polizia e sulla compatibilità di queste tecnologie con la tutela della privacy e dei diritti fondamentali. La sentenza, dopo aver verificato l’applicabilità di alcune discipline già esistenti, conclude per la loro adeguatezza a tutelare gli interessi in gioco.

L’Alta Corte di giustizia del Regno Unito, sede di Cardiff, si è recentemente pronunciata sulla liceità dell’uso della tecnologia di riconoscimento facciale automatico (AFR – Automated Facial Recognition) da parte della Polizia del Galles in luoghi pubblici. La sentenza, come osservato dagli stessi giudici, rappresenta la prima decisione di una Corte di giustizia sul tema.

La causa ha avuto origine dal ricorso proposto da un attivista per i diritti civili, ripreso a sua insaputa dalle telecamere in un centro commerciale e, una seconda volta, durante una mostra. Secondo il ricorrente, la Polizia del Galles, in quelle occasioni e, in generale, nella fase di sperimentazione della tecnologia AFR, avrebbe violato la normativa in materia di trattamento dei dati personali (Data Protection Act), la Convenzione per i diritti umani e l’Equality Act. In particolare, il trattamento di dati sensibili (i dati biometrici raccolti dalle telecamere in luoghi pubblici) da parte della Polizia è stato contestato in quanto relativo a persone comuni, non sospettate, indagate o ricercate, e in quanto non strettamente necessario ai fini dell’applicazione della legge, come invece previsto dalle norme. L’uso della tecnologia AFR, inoltre, violerebbe l’art. 8 della CEDU che tutela la vita privata e famigliare in quanto il potere esercitato dalla Polizia del Galles sarebbe privo di una base giuridica e di conseguenza mancherebbe dei requisiti di “foreseeability, predictability, and hence of legality”. Infine, i software usati potrebbero dar luogo a match errati in ragione della presenza di bias e di errori di programmazione.

Oltre alle doglianze specifiche, il ricorso ha rappresentato l’occasione per la Corte, di affrontare, in termini più ampi, il problema dell’adeguatezza stessa dell’attuale regime giuridico inglese a garantire i diritti dell’individuo in presenza dell’uso da parte delle autorità pubbliche delle tecnologie più recenti, per valutare, dunque, come osservato nelle prime righe della decisione, se legge tenga o meno “il passo con le tecnologie nuove ed emergenti” in particolare, in presenza di decisioni basate su algoritmi.

I giudici, dopo avere analizzato in cosa consiste la tecnologia AFR e come questa sia utilizzata dalla polizia del Galles, hanno respinto il ricorso e concluso per la liceità dell’operato delle autorità.

Con riferimento alle censure relative all’art. 8 della CEDU, è stato ritenuto che il secondo paragrafo della norma, in base al quale l’ingerenza di una autorità pubblica è ammessa solo se prevista dalla legge e se costituisca una misura necessaria per la tutela di specifici interessi pubblici (come la sicurezza nazionale, o la protezione della salute), fosse stato rispettato. Per quanto riguarda la necessaria previsione di legge, ad avviso dei giudici, infatti, esiste “un quadro giuridico chiaro e sufficiente” rappresentato dalle norme di diritto primario che regolano le competenze e l’azione delle forze di polizia; dagli strumenti legislativi secondari, quali ad esempio, i codici di condotta emanati sulla base del diritto primario, e, in ultimo, dalle politiche locali adottate dalla Polizia del Galles. Si tratta di norme già esistenti, ma che ben possono essere utilizzate per la regolazione dell’uso di queste nuove tecnologie e che applicate nel loro insieme rendono l’agire della Polizia nel caso di specie “prevedibile e accessibile” Come osservato dalla Corte, “[w]hat is important is to focus on the substance of the actions that use of AFR Locate entails, not simply that it involves a first-time deployment by SWP of an emerging technology. The fact that a technology is new does not mean that it is outside the scope of existing regulation, or that it is always necessary to create a bespoke legal framework for it”.

L’uso della tecnologia di riconoscimento facciale inoltre, secondo i giudici, supera il c.d. Bank Mellat test in base al quale un’interferenza con i diritti di cui all’articolo 8, paragrafo 1, CEDU può essere giustificata solo se l’obiettivo della misura perseguita è sufficientemente importante da giustificare la limitazione di un diritto fondamentale; se c’è un collegamento razionale tra la misura e l’obiettivo; se una misura meno invasiva non avrebbe potuto essere utilizzata senza compromettere inaccettabilmente l’obiettivo e se, tenuto conto di tali aspetti e della gravità delle conseguenze, sia stato raggiunto un giusto equilibrio tra i diritti dell’individuo e gli interessi della comunità. Per la Corte, infatti, la tecnologia AFR è finalizzata alla prevenzione dei reati e l’uso che ne è stato fatto in concreto “ha raggiunto un giusto equilibrio e non è stato sproporzionato”.

Argomentazioni analoghe sono state utilizzate dai giudici britannici per respingere la censura relativa alla presunta violazione della normativa in materia di trattamento dei dati personali.
Secondo i giudici, la sezione 35 del Data Protection Act sarebbe stata rispettata in quanto l’AFR is strictly necessary to prevent and detect crime”.

La Corte ha altresì, ritenuto non violati i principi che regolano l’agire delle autorità pubbliche, contenuti nell’Equality Act: è stato, infatti, affermato che non esiste nessun valido motivo per sostenere e provare che l’accuratezza dei risultati del software possa essere stata influenzata da fattori come il genere o la razza.

I giudici inglesi hanno infine, osservato, pronunciandosi sulla procedura seguita dalla Polizia nell’utilizzo dei dati, che si è trattato di processi “open and transparent”, evidenziando quale ulteriore garanzia dei soggetti ripresi a loro insaputa, la circostanza che, in mancanza di una corrispondenza tra l’immagine catturata e una persona in una lista di controllo, tutti i dati corrispondenti a tale immagine fossero stati “immediatamente e automaticamente cancellati”.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.