Riconoscimento facciale e uso sui minori. Beneficio o rischio per la società?

In Argentina, le forze dell’ordine si avvalgono del Registro nazionale dei fuggitivi e degli arresti (Consulta Nacional de Rebeldías y Capturas, CONARC), un database nazionale, facilmente scaricabile dal web, che contiene nomi e dati sensibili di tutti coloro che sono sospettati di aver commesso un crimine. Ma a rendere il sistema ancora più controverso è il fatto che la piattaforma includa nomi di minori.

Il Conarc, utilizzato, già dal 2009, dal ministero della Giustizia e dei diritti umani argentino, include una tecnologia di riconoscimento facciale che combina le fotografie contenute nel database con le immagini raccolte in tempo reale da alcune telecamere sparse per la città di Buenos Aires. Una volta riconosciuto un soggetto sospetto, si procede con l’arresto.

Il ministero della Sicurezza ha informato che il 4% degli arresti è stato effettuato a seguito di un falso positivo e la polizia non possiede alcun protocollo per gestire tali situazioni.

Questo database, che il ministero rende pubblicamente disponibile online, contiene i nomi dei sospettati, l’età, i numeri di identificazione nazionali, il presunto reato, l’ubicazione e l’autorità che ha emesso il mandato, tra gli altri dettagli.

Una indagine di Human Rights Watch ha scoperto che, tra maggio 2017 e maggio 2020, almeno 166 bambini sono stati aggiunti a Conarc, la maggior parte dei quali di 16 o 17 anni, sebbene siano state incluse anche le persone identificate come giovani di un anno. Il crimine più comune di cui sono accusati questi bambini è il furto: 63 bambini, pari al 37,5%.

Il database contiene errori, in particolare con riferimento ai minori, in parte perché molti algoritmi sono stati addestrati, testati e regolati solo su volti di adulti. Secondo i documenti ufficiali, il sistema è stato testato solo sui volti adulti dei dipendenti del governo cittadino prima dell’appalto. Così, può capitare ad esempio, che un bambino di 3 anni sia indicato come ricercato per rapina aggravata.

Il sistema non dispone di garanzie di base per ridurre al minimo gli errori di immissione dei dati, che possono avere gravi conseguenze per la reputazione e la sicurezza di un bambino.

E’ un sistema contro gli standard internazionali sui diritti umani, che viola i diritti fondamentali degli individui, oltretutto minorenni, tra cui il diritto alla privacy (già su questo osservatorio ), aggravato dal fatto che spesso rischia di incorrere in errori o discriminazioni legati alla razza o al genere (sul rapporto tra riconoscimento facciale e diritti fondamentali si veda su questo osservatorio).

Pubblicando i dati personali di questi bambini online, il governo nazionale mette a rischio il loro futuro educativo, sociale e professionale.

Buenos Aires è solo l’unica ad aver utilizzato il riconoscimento facciale per i bambini. Anche Londra e Mosca hanno annunciato di voler utilizzare e, quindi, implementare al più presto sistemi simili, senza tuttavia fornire dettagli su come intendono proteggere i minori.

E’, quindi, fondamentale una regolamentazione dei modelli biometrici utilizzati alla luce dei generali principi di interpretability e trasparency (vedi già il caso SingPass Face Verification, su cui, su questo Osservatorio o il caso Clearview su cui, su questo Osservatorio) o, in alcuni casi, di una vera e propria limitazione dell’uso di software per il riconoscimento facciale, con una revisione periodica e indipendente delle reali capacità del sistema al fine di prevenire errori che possano comportare la lesione di diritti costituzionalmente garantiti.

Occorre una vera e propria promozione di cambiamenti nelle politiche pubbliche a tutela dei diritti civili: il governo della città dovrebbe valutare con maggiore attenzione e giustificare adeguatamente la necessità, la proporzionalità e la legalità dell’uso della sorveglianza del riconoscimento facciale (sulle necessarie garanzie si veda su questo Osservatorio), con particolare riguardo soprattutto alle sue implicazioni per i bambini, nonché, quindi, ai rischi che questa tecnologia può portare ai diritti umani, sociali, economici e politici.

Infine, ma non per ultimo, un simile sistema dovrebbe conformarsi agli obblighi di legalità, trasparenza e buon andamento dell’agire della pubblica amministrazione, attraverso anzitutto la pubblicazione di statistiche verificabili sulle prestazioni del sistema; l’adozione di un protocollo trasparente e standard da applicare per l’aggiornamento e la verifica dell’accuratezza del sistema di abbinamento dei volti che può portare all’incarcerazione illegale di minori, nonché un protocollo legale standard di azione che le forze dell’ordine devono osservare in caso di “falso positivo e\o falso negativo”, ovvero di arresto per errore.

 

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale