Le scelte degli Stati sulla ‘τέχνη’: quattro indicazioni

Gli Stati sono attori primari nella strategia contro il Covid-19. Anche nel momento in cui si devono calcolare le conseguenze delle scelte tecnologiche dirette al tracciamento. Si delineano di seguito, quattro indicazioni per il processo decisionale.

 

L’utilizzo di strumenti tecnologici per far fronte all’emergenza si sta ormai diffondendo progressivamente. Una recente analisi mostra lo stato attuale delle scelte compiute da parte dei singoli Governi: Samuel Woodams mostra che, a oggi, vi sono 23 app sviluppate dal settore pubblico, 11 da quello privato e 3 miste.

Nella maggior parte dei casi si tratta, dunque, di strumenti di matrice pubblicistica, in cui lo Stato mette a disposizione le APP. Il peso delle tech giant si fa comunque sentire, come nel caso della sinergia tra Apple e Google per fronteggiare la grave crisi statunitense. In alcuni casi, come in Italia, lo Stato ha scelto l’appa di un soggetto privato (“Immuni”, di Bending Spoons), nazionale, che ha offerto il servizio in modo gratuito, sollevando però numerose questioni, dalla forma di affidamento alla gestione dei dati, fino alla proprietà del codice sorgente (si v. i relativi post, su questo Osservatorio, di E. Schneider e P. Clarizia, su funzionamento,  modalità di affidamento e privacy di Immuni).

In questo quadro in costante evoluzione, appare di rilievo la possibilità di aderire a progetti aperti, facendoli diventare comuni. Prendiamo il caso di una iniziativa divenuta molto nota, che sta ricevendo attenzione da parte di diversi Stati nazionali: è – l’ormai noto – Pan European Privacy Preserving- Personal Tracking (PEPP-PT). Nel suo sviluppo, vi sono stati due modelli a confronto: un protocollo centralizzato e uno decentrato. Il primo, prevalso all’inizio, è stato seriamente criticato perché idoneo a consentire usi estesi e non prevedibili (sia una volta passata l’emergenza, sia prima). Così, è stato proposto di attuare un sistema decentrato, che (in estrema sintesi) garantisce maggiore riservatezza e impedisce ab origine che di perpetrare abusi (il timore, come spesso detto, è la situazione che verrà a crearsi dopo la fine dell’emergenza). Si tratta del protocollo DP-3T (che, utilizzando la tecnologia bluetooth, consente comunque di mantenere l’anonimato, in quanto il server segnala di essere stati vicini a un infettato, ma non svela chi sia: il protocollo è ben spiegato, con maggiori dettagli tecnici, dal Prof. Enrico Nardelli, qui; si v. anche questo thread di Michael Veale). Tuttavia, il protocollo DP-3T è stato scartato dal progetto PEPP-PT, destando la massima attenzione e un coro di voci critiche. Tanto che anche il citato progetto congiunto di Apple e Google è stato considerato più conforme alla protezione della privacy (chiaramente non mancano voci contrarie).

Secondo il progetto ROBERT (ROBust and privacy-presERving proximity Tracing protocol) dei governi tedesco e francese, tale dibattito sarebbe misleading, in quanto un server centralizzato che raccolga le informazioni è comunque necessario per assicurare la minima utilità all’app (e hanno pubblicato documenti tecnico e informazioni comuni per illustrare il punto). L’idea della “comunità indipendente” dei device (smartphone) è, nei fatti, rigettata, mentre si avrà una commistione di funzionamento centralizzato e decentralizzato. Il Centro Nexa del Politecnico di Torino, con una lettera aperta indirizzata ai decisori, tra le altre cose punta, al contrario, su tecnologie decentrate. L’Association Internationale de Recherche en Cryptologie (IAC) ha lanciato una iniziativa analoga e Le Monde ha dedicato un editoriale infuocato all’app francese StopCovid.

Anche se le scelte politiche francesi sono ondivaghe continuano a far oscillare il modello di riferimento, e la Germania sembra orientata a sposare la tecnologia di Google-Apple, nel progetto Robert è da sottolineare l’idea di creare un sistema di “punteggio” per la singola persona, e questo aspetto desta timori di una invadenza eccessiva. I dati, infatti, dovrebbero essere raccolti seguendo il criterio del minimo mezzo, limitandosi ai soli infetti – e anche del minimo tempo di conservazione, limitandolo allo stretto necessario e procedendo a una cancellazione serrata e periodica, in modo da renderli inutili in caso di illecita sottrazione (o indebita elaborazione). Da ultimo, Svizzera e Austria hanno adottato proprio il protocollo DP-3T, in controtendenza rispetto a PEPP-PT E ROBERT e verso la ricerca di maggiore tutela della riservatezza.

Il trade off è evidente: la domanda di sicurezza e i rischi di un eccessivo controllo si fronteggiano. Per alcuni è un falso trade-off: non bisogna cedere alle promesse dell’orizzonte tecnologico finché non si interviene su altri fattori di politica sanitaria sociale, e finché non è chiaro l’assetto di governo dell’eventuale tecnologia da utilizzare. Un editoriale del NYT è stato molto netto, in questo senso: le APP non serviranno a frenare la pandemia, ma saranno uno strumento ulteriore di controllo. Vengono riflessi, in questo senso, i timori legati alla protezione dei diritti umani. “Access to adequate health care, including protective equipment and sufficient testing, will do more good than another hackathon. Unless all of us are healthy, no one is”. Lo stesso quotidiano è tornato sul tema, analizzando i rischi della sorveglianza di massa, anche con un rapporto speciale sul ricorso a Cellebrite. Il giudizio di molti esperti, infatti, è che il tracciamento digitale di per sé non sia sufficiente e che occorrano sinergie maggiori, a livello infrastrutturale e sanitario (ne ha parlato anche The Economist); rischia, poi, di tramutarsi in uno strumento che peggiorerà il già grave stato di sorveglianza e “appropriazione” dei dati (di cui parla, tra gli altri, Shoshana Zuboff). Secondo la Brooking Institution, le app non costituiscono la soluzione: non vi sono dubbi “that the developers of contact-tracing apps and related technologies are well-intentioned”. Allo stesso tempo, si chiede agli sviluppatori to step up and acknowledge the limitations of those technologies before they are widely adopted. Health agencies and policymakers should not over-rely on these apps and, regardless, should make clear rules to head off the threat to privacy, equity, and liberty by imposing appropriate safeguards”. Altri, al contrario, sostengono, con analisi estese, che strumenti tradizionali (come il tracciamento manuale) non possano far fronte alle velocità della pandemia (si tratta di un articolo pubblicato su Science). Si tratta, a ben vedere, del classico e tragico dilemma, per cui la paura fa accettare progressive restrizioni di diritti fondamentali. Come ho già osservato (si v., su questo Osservatorio, quanto scritto in Pandemia e panopticon) l’ordinamento consente di bilanciare i diritti e comprimere (parzialmente) la riservatezza in presenza di ragioni di ordine pubblico.

È necessario che l’ordinamento preveda questa via di fuga. Dalla forma giuridica occorre, però, passare alla sostanza, per capire se la compressione sia effettivamente utile a contenere l’epidemia. Qui è la tecnologia a fare la differenza: sono i sistemi di tracciamento e il loro carattere decentrato a consentire di svolgere una missione propriamente in linea con la tutela dei diritti fondamentali. Molti ritengono che sia un timore eccessivo: nella generale inconsapevolezza, siamo tracciati costantemente dai dispositivi e dalle che portiamo con noi ogni giorno. Perché, dunque, porsi il problema quando tale tecnologia serve a tutelare un diritto fondamentale come la salute? Quest’ultima, però, è una domanda mal posta e poco logica: il problema non è la premessa minore (l’uso di APP, oggi, contro il Covid-19), ma quella maggiore (la generale non conoscenza delle tecniche di sorveglianza). Tale domanda, di conseguenza, perde di vista due elementi centrali: la proporzionalità e la misura dei mezzi.

Analisi e contro-analisi delle diverse soluzioni impongono caute e attente riflessioni sulle strade da seguire. Quali scelte dovrebbero compiere gli Stati, in questo difficile momento storico? Come potranno muoversi dinanzi a simili progetti? Aderiranno, o potranno dettare i loro desiderata?

Vi sono quattro possibili indicazioni per i decisori pubblici.

Primo, sarebbe auspicabile una maggiore condivisione di una serie di principi e standard minimi per i soggetti pubblici – dettando linee guida, o affiancando forme di coordinamento che anche l’Unione europea, con fatica, sta cercando di promuovere. Così, Algorithm Watch ha spiegato che “there is no need to sacrifice our fundamental liberties if this serves no purpose”. “Protection against COVID-19 and protection of privacy are not mutually exclusive”; inoltre, significativamente, “digital surveillance solutions should be firmly grounded in data protection principles”. Infine, e soprattutto, “[t]he COVID-19 is not a technological problem”: le risposte pubbliche devono essere maggiori e poggiare su policy più vaste, dalla infrastruttura alla sanità. L’American Civil Liberties Union (ACLU), nel documento dell’8 aprile denominato “The challenges posed by Covid-19 are extraordinary”, inquadra nettamente la situazione corrente, ponendo cinque domande critiche al fine di costruire soluzioni concrete, coerenti, utili e non invasive (Qual è l’obiettivo? Quali dati raccogliere? Chi raccoglie i dati? Come li gestisce? Qual è il ciclo di vita dei dati?). Se i dati, sul piano tecnico, non sono sempre accurati (sono spesso frammentati e possono essere distorti), lo stesso problema si riscontra con gli algoritmi (“[t]he algorithms are not likely to be reliable”). Persino Google e Facebook, secondo l’ACLU, dispongono di dati di localizzazione di una sola minoranza dei propri utenti (per pratiche di opting-out, o per un funzionamento non sempre preciso). I rischi di poca precisione si traducono spesso in realtà pericolose per i singoli. Il rapporto ricorda come, in Israele, una donna è stata considerata contagiata semplicemente perché stava salutando il proprio fidanzato (infetto) fuori dall’appartamento in cui viveva. E solo per questo è stata destinataria di un ordine di quarantena. In Corea del Sud, l’anonimizzazione procede con grandi difficoltà. Ad esempio, sono state rivelate le abitudini personali di un uomo di 43 anni, che ha subito “sanzioni sociali”: questo spinge le persone (nota giustamente l’ACLU) a essere “more afraid of social humiliation than of the disease itself, threatening to interfere with testing, arguably the most important intervention to control the virus”. Di qui domande emblematiche, che nascono dai limiti della tecnologia: “[e]ven without robust unique identification, stigma and harassment could follow retracing the steps of newly identified coronavirus carriers”. La stessa Microsoft ha adottato sette principi, dalla proporzionalità alla trasparenza al minimo mezzo, fino alla protezione degli apparati (1. Obtain meaningful consent by being transparent about the reason for collecting data, what data is collected and how long it is kept. 2. Collect data only for public health purposes. 3. Collect the minimal amount of data. 4. Provide choices to individuals about where their data is stored. 5. Provide appropriate safeguards to secure the data. 6. Do not share data or health status without consent, and minimize the data shared. 7. Delete data as soon as it is no longer needed for the emergency).

Secondo, occorre una risposta corale. Sempre secondo Algorithm Watch, non esiste una soluzione univoca, una “one-size-fits-all solution to the COVID-19 outbreak”: occorre calibrare la risposta sui singoli contesti. Di conseguenza, “there is no need to rush into mass digital surveillance to fight the COVID-19 disease. It is not just a matter of privacy — although privacy remains a fundamental right and needs to be respected”. Occorre costruire uno sguardo complessivo, d’insieme, aperto e lungimirante.

Terzo, è necessario che le fonti normative siano chiare, che mostrino requisiti e modalità di funzionamento, ed è necessario il rispetto delle prerogative dei poteri e il rispetto del ruolo centrale del Parlamento. Lo ha sostenuto, nel Regno Unito, l’Ada Lovelace Institute (nel documento Exit through APP Store?): “clear and comprehensive primary legislation should be advanced to regulate data processing in symptom tracking and digital contact tracing applications. Legislation should impose strict purpose, access and time limitations”. L’Istituto fornisce indicazioni sulla necessità di definire un quadro normativo certo, in cui la tecnologia dovrebbe muoversi (dalla limitazione dei dati, al loro utilizzo a soli fini sanitari, alla loro cancellazione dopo l’emergenza) e di affiancare (ancora una volta) altre policy di protezione e sostegno. In Israele (si v. ancora Pandemia e panopticon). la raccolta dei dati da parte dello Shin Bet è stata sospesa su decisione di un comitato parlamentare (il Knesset Foreign Affairs and Defence Committee), così rispondendo all’intervento unilaterale del governo. Anche in Francia, la decisione del governo di non aprire il dibattito parlamentare sull’app StopCovid ha suscitato fortissime polemiche e, al momento, il governo Macron ha dovuto fare un passo indietro.

Quarto, se le politiche pubbliche, come anticipato, devono essere migliorate nel complesso (innalzando livelli e prestazioni di sanità, protezione sociale, sostegno, cooperazione), è necessario predisporre una regia complessa, ricorrendo a esperti che padroneggino materie, diverse, dalla protezione dei diritti alla sanità, dall’informatica alla statistica, ai data scientist. Una scelta importante, dunque, è tornare a rispolverare i saperi al momento di prendere decisioni. Di qui, poi, occorre il coraggio di quadrare il cerchio con una decisione politica. Citando ancora il documento dell’ACLU, “policymakers must have a realistic understanding of what data produced by individuals’mobile phones can and cannot do. As always, there is a danger that simplistic understandings of how technology works will lead to investments that do little good, or are actually counterproductive, and that invade privacy without producing commensurate benefits”. Le scelte devono basarsi “on a realistic understanding of what technology and data can and cannot do” e i decisori “should understand the limits of existing location data and devices for automated contact tracing”. Una ricaduta concreta, ad esempio, sarebbe quella di comprendere che l’andamento incostante dei contagi dipende dalla ancora scarsa considerazione di soggetti positivi ma non diagnosticati.

La pandemia ha dimostrato di non conoscere confini. Conoscenza e condivisione tra Stati, con un quadro di principi e standard minimi su cui innestare le proprie scelte, dovrebbero inseguirla sul suo stesso terreno, se si vuole cercare di affrontarla con armi altrettanto efficaci.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.