“Non puoi nasconderti, io ti vedo!” Brevi considerazioni su trattamenti biometrici, riconoscimenti facciali e relative (giuridiche) paresi

Lo sviluppo dell’intelligenza artificiale (A.I.) torva terreno particolarmente fertile anche nel settore delle tecnologie biometriche, tra cui quelle di c.d. “facial recognition”, ormai ampiamente utilizzate per scopi di verifica, identificazione e categorizzazione degli individui da parte di soggetti sia privati che pubblici. Mentre il mercato del riconoscimento facciale sembra ormai spiegare le vele verso le più disparate applicazioni, è altresì evidente la parallela emersione di un tema particolarmente sensibile, quello della “sorveglianza biometrica”. L’utilizzo di tali tecnologie biometriche, in sintesi, può comportare reali benefici nel settore della pubblica sicurezza? Si tratta di comprendere se la pervasività e l’intrusività di tali sistemi giustificano una deroga alla piena applicazione di alcuni diritti fondamentali, tra cui il diritto alla protezione dei dati personali.

 

È recente fatto di cronaca l’utilizzo da parte del governo turco delle tecnologie di c.d. “riconoscimento facciale” (per maggiori informazioni si veda qui) per identificare alcuni soggetti che avevano manifestato a favore della libertà di stampa, soprattutto di quella stampa maggiormente critica nei confronti delle posizioni governative. Del resto, non è la prima volta che la Turchia utilizza detti sistemi tecnologici per “mappare” i dissidenti politici, applicando un sistema di polizia digitale distopico con conseguente compressione di diverse libertà fondamentali (ne abbiamo parlato qui e qui). Per quanto qui di interesse, detta circostanza offre lo spunto per una breve riflessione sulla nuova frontiera del digitale applicato alla sicurezza (pure pubblica): il sistema del facial recognition, passato ormai da isolati progetti pilota a tecnologia di più ampia diffusione (per approfondimenti, si veda anche qui e qui).

Le facce, come noto, costituiscono uno degli stimoli più importanti e rilevanti per il genere umano. L’ovvietà del “riconoscere volti” – abilità di base estremamente naturale, che svolgiamo quotidianamente con velocità e automatismo – cela, in realtà, un ben più alto grado di rilevanza e importanza sociale: essa è l’azione con la quale identifichiamo gli altri, carpiamo un’emozione, apprezziamo le caratteristiche fisiognomiche di un individuo. Come illustrato dalla migliore dottrina scientifica, l’elaborazione di facce, sebbene funzione elementare e immediata, è formata in realtà da complessi processi percettivi e cognitivi, tra cui, a titolo esemplificativo, l’accesso al nome e all’informazione semantica associata al viso specifico e l’analisi di espressioni facciali per determinarne le intenzioni e gli stati emozionali.

Spostandoci sul piano del digitale, il riconoscimento facciale si sostanzia, in sintesi, in una tecnica biometrica atta a identificare una persona confrontando e analizzando modelli basati sui suoi “contorni facciali”. Le maggior parte delle tecniche di riconoscimento facciale si basa, infatti, sui diversi punti nodali di un volto umano: i valori misurati rispetto alla variabile associata ai punti del volto di una persona aiutano a identificare o verificare il soggetto in maniera più o meno univoca. Con questa tecnica, le applicazioni possono utilizzare i dati acquisiti dai volti e possono identificare rapidamente gli individui interessati (sul punto, si veda qui, qui e qui).

Ebbene, la fiducia, incrollabile, di molti nell’utilizzo delle tecnologie di riconoscimento biometrico (oggi ancor più sofisticate, con l’ingresso del c.d. “lidar” 3D) si basa, però, su un assunto tanto semplice quanto errato: che sia possibile per un’immagine descrivere sé stessa. Il meccanismo, da un punto di vista descrittivo, è banale: a) il software/algoritmo scandaglia le facce presenti nei database delle forze di pubblica sicurezza; b) “scannerizza” in tempo reale i volti presenti in un dato contesto; c) confronta i dati visivi, identificando, in teoria, tutti i soggetti ripresi. Ciò sull’assunto – necessario e imprescindibile – che l’algoritmo utilizzato sia infallibile oltre che neutrale, imparziale e oggettivo. E però, come bene evidenziato da diversi autori (si veda, su tutti, K. Crawford), le immagini non si descrivono da sole, ma «vediamo le stesse immagini in modo diverso a seconda di come vengono etichettate. Il circuito tra immagine, etichetta e referente è flessibile e può essere ricostruito in un qualunque numero di modi per fare cose differenti». Si pensi anche a quei circuiti che cambiano nel tempo con il mutare del contesto culturale di un’immagine, significando cose diverse a seconda di chi guarda e del luogo dove la stessa è stata ripresa. A tale ragionamento non si sottrae nemmeno l’A.I., per quanto improntata all’oggettività e alla scientificità del metodo di analisi dei dati. Basti pensare che i sistemi automatizzati non sono mai intrinsecamente neutrali: essi riflettono le priorità, le preferenze e i pregiudizi – “lo sguardo fatto codice” – di chi dispone del potere di dare forma a una intelligenza artificiale.

Nonostante quanto sopra, da un punto di vista squisitamente storico, non può non evidenziarsi come la materia de qua sia stata invece, ab origine, impregnata di quell’ “inevitabilismo” (termine caro a S. Zuboff) per cui è la tecnologia a imporre i suoi cambiamenti all’uomo, e non viceversa. Di conseguenza, se la facial recognition costituisce espressione naturale dello sviluppo tecnologico, non ci si potrà certamente opporre alla stessa (si veda anche qui); casomai la si potrà – eventualmente – “regolare”. Sotto tale prospettiva, regolatoria/giuridica, notevole è stato lo sforzo dell’Unione Europea (per un approfondimento, si veda qui) di intelaiare una cornice ad hoc all’interno della quale “isolare” e trattare il fenomeno di identificazione biometrica. Ad esempio, con il documento “Regulating facial recognition in the EU” del 2021, l’EPRS (European Parliamentary Research Service) ha evidenziato – in estrema sintesi – come: (1) l’utilizzo di tali tecnologie si scontri, de facto, con gli artt. 7 (rispetto della vita privata e familiare) e 8 (protezione dei dati di carattere personale) della Carta dei diritti fondamentali dell’Unione europea, soprattutto con riferimento alla tutela e alla garanzia del consenso esplicito per l’utilizzo delle tecnologie di facial recognition; (2) è alto il rischio di discriminazioni (negli Stati Uniti, ad esempio, l’incidenza dei c.d. “falsi positivi” ha un notevole impatto sulle persone di colore, alterando la presunzione di innocenza e ponendo a carico dei “sospetti” l’onere di dimostrare che non sono chi il sistema identifica), quindi in contrasto con l’art. 21 della Carta sopra richiamata; (3) detta tecnologia potrebbe costituire una forma di sorveglianza di massa indiscriminata (tanto è vero che l’indirizzo generale dell’UE, pure contenuto nelle proposte di regolazione dell’A.I. dell’aprile 2021, è nel senso di vietare tali forme di identificazione negli spazi pubblici, salvo l’utilizzo in pochissimi casi, tra cui terrorismo e minaccia imminente all’incolumità fisica delle persone).

Dette indicazioni sono – senza dubbio – singolarmente valide, ma è l’insieme a essere davvero degno di nota. Si suggerisce, in sintesi e tra le righe, un atteggiamento cauto e allo stesso tempo risoluto nei confronti della sorveglianza digitale. Del resto, è proprio sul campo della “polizia predittiva” – i.e. dell’ascesa del modello della “sorveglianza del vigilante connesso”, vale a dire il prodotto, con collante tecnologico, di cultura delle start-up, intelligenza artificiale e vicini impauriti – che si terrà la fatidica battaglia per lo sdoganamento della tecnologia del facial recognition (ne abbiamo altresì parlato qui, qui, qui e qui). Perché è su questo terreno che si avverte, con immediatezza, la profondità e la delicatezza delle questioni che si vorrebbero affidare all’A.I. e agli algoritmi.

Sul punto, al di là degli evidenti ed evidenziati profili giuridici, non può non rilevarsi come la soluzione “biometrica” non convince, nel merito, anche per una (anzi triplice) considerazione: (i) la prima, di ordine tecnico, è che le tecnologie di riconoscimento facciale hanno un margine di errore ancora molto elevato, per cui non è possibile qualificarle come strumenti affidabili ed efficaci; esse, allo stato, sono quindi incapaci di cogliere appieno, con la necessaria univocità soprattutto in contesti pubblici ampi, i profili facciali dei soggetti inquadrati; (ii) la seconda, di tipo etico, riguarda il valore stesso dell’impronta biometrica del nostro volto, la sintesi più preziosa dei nostri dati personali, la nostra identità, la quale non solo non può essere “catturata” da software/algoritmi basati su modelli prognostici ancora deboli – e spesso fuorvianti (si pensi agli arresti eseguiti sulla base di semplici somiglianze con soggetti pericolosi) – ma nemmeno è passibile di alcuna valutazione o comparazione utilitaristica, men che meno pubblica; (iii) una terza, (sia consentita) predittiva, riguarda l’utilizzo di dette tecnologie; se il ricorso ai dati biometrici “vale la partita” della pubblica sicurezza, allora è lecito aspettarsi un impiego massiccio e diffuso di tali metodologie identificative, dal mero ingresso al supermarket passando per l’accesso ai mezzi pubblici, con buona pace per lo sfibrato, per quanto irrinunciabile, diritto alla privacy. Del resto – venendo a far nostra, adeguandola al contesto, una felice espressione di O. Keyes – identificare e tracciare qualcuno guardandolo, senza parlare o interloquire con lo stesso, è un po’ come chiedere che sapore ha l’odore del blu: «il problema non è tanto che la tua risposta è sbagliata quanto che la tua domanda non ha senso».

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale