Data delusion: la giusta prospettiva in un position paper di Stanford

Notevole presa di posizione da parte di due esperti, uno studioso e una ex parlamentare europea, che ripercorrono le origini della normativa in materia di tutela della riservatezza e affrontano il problema della raccolta (e dell’uso) massivo di dati secondo con uno sguardo privo di finzioni. Una delusione evidente, da cui muovere per capire come il problema non sia individuale, ma generale, e come tale necessiti di una risposta da parte delle istituzioni. Collective data, dunque: la ricerca per risposte adeguate è avviata.

 

Data delusion: non poteva esservi titolo migliore. Una vera e propria delusione, infatti, rischia di compromettere i benefici – innegabili sotto moltissimi profili – che Internet ha prodotto nella società. Gli autori del paper “The Data Delusion: Protecting Individual Data Isn’t Enough When The Harm is Collective”, Martin Tisné e Marietje Schaake, ricordano un caso giudiziario: il Prof. Carroll chiede informazioni a Cambridge Analytica e intenta una azione giurisdizionale per comprendere l’estensione dei dati trattati – che lo riguardavano – e misure risarcitorie. Non ottiene nulla.

L’azione è troppo difficile per un singolo. Ed è questa l’idea di fondo su cui si muove il paper, per mostrare come le difficoltà del cittadino – solo dinanzi ai nuovi poteri – non siano superabili. Serve un cambio di prospettiva. Serve rovesciare l’ottica: occorre guardare al tema dei big data come a un problema di interesse generale. I dati sono “la nuova anidride carbonica” e il tema va affrontato su scala planetaria (come per le emissioni, sperando in risultati più celeri ed efficaci e senza “negazionismi”). Un problema generale, la cui natura deve indurre a parlare di “collective data” e “collective rights”, nella terminologia degli autori.

Per arrivare a questo, vengono riproposte le tappe della legislazione in materia di privacy: dalle iniziative degli anni Settanta, come la legge francese del 1978, che aveva intuito i rischi sottesi all’emergere delle potenzialità di calcolo degli elaboratori e all’uso progressivo dei database, fino alle linee guida dell’Ocse, del 1980.

L’approccio sotteso a tali iniziative, secondo gli autori, è stato quello di costruire la normativa in base alla personalità dell’individuo. E di legare, dunque, la circolazione e il trattamento dei dati in base alla sua volontà e alle sue preferenze, in un’ottica evidentemente individualista. Con schemi paritari, dunque, del diritto civile, che oggi non sono più sufficienti. Questa logica permeava anche gli interventi europei: sia la prima direttiva europea dettata in materia (n. 95/46/CE), sia il Gdpr — che comunque offre un armamentario più esteso e si muove in una direzione più ampia.

Alla sostanza del plesso normativo vanno aggiunti, in un’ottica di policy e lawmaking – gli strumenti pubblicistici, innestando nella sfera individuale l’interesse generale. Che conduca tale sfera nella più ampia zona di una collective dimension: l’unica in grado di affrontare il fenomeno con una promessa di efficacia. Questo non significa abbandonare la tutela individuale, ma compenetrarla attraverso un altro livello di intervento, che ne rafforzi la dimensione.

Il tema del controllo dei dati, in questo senso, non può più limitarsi al rispetto della sola sfera individuale, con una struttura di responsabilità tarata unicamente su una dimensione bilaterale. È un’ottica impensabile se solo si osservano le forze in campo (“The era of machine learning effectively renders individual denial of consent meaningless”). Che richiedono un ripensamento della struttura delle relazioni tra soggetti e dei meccanismi giuridici che le sorreggono, soprattutto a favore della parte più debole. A tale riguardo, viene citata la monetizzazione dei dati per singolo individuo, portando l’esempio di Facebook: 10 dollari al giorno (valore che non impensierirebbe minimamente il gigante, di fronte a una azione risarcitoria: “The value of an individual’s data to Google or Facebook is marginal”).

La riforma complessiva del settore deve condurre a un quadro normativo sui dati: un nuovo Public Interest Data Bill, che deve basarsi su tre pilastri: trasparenza, forte supervisione sull’uso dei dati, verifica dell’impatto degli algoritmi sulla società. La trasparenza deve essere mirata e consentire di arrivare al cuore delle questioni, svelando gli effetti dei meccanismi utilizzati dai tecnici. Il controllo deve essere effettivo e prevedere sanzioni efficaci. Occorre, inoltre, definire i presupposti e chiarire gli effetti, in ottica preventiva, delle decisioni automatizzate (su cui si v. quanto scritto in questo osservatorio, qui: link ad Algorithm Watch). Va assicurata la partecipazione pubblica per decisioni che hanno impatto sulla vita sociale. Vanno presi spunti, infine, da tentativi precedenti, anche non andati in porto, come l’Algorithmic Accountability Act, che non è stato approvato dal Congresso statunitense. Va ripensata, infine, l’ottica complessiva, affiancando – come più volte detto – alla dimensione individuale, quella collettiva.

In un periodo come quello attuale, scosso dalla pandemia, che segnerà una traccia evidente, l’accumulo dei dati è diventato sempre più urgente, generando di conseguenza il problema della loro gestione (“As the world moves further online due to the Coronavirus, companies and governments will collect a lot more information about people through data gathering”; “the surveillance consequences of the pandemic’s aftermath are much bigger than any app: transport, education, health systems and offices are being turned into vast surveillance networks”). E anche qui andranno testati meccanismi che non lascino le decisioni in mani inesperte e prive di competenza, ma siano invece adottate ascoltando le voci di chi conosce a fondo i funzionamenti di raccolta e circolazione dei dati. Ascoltando, in primis, informatici, data scientists, e comunque dotando la società – e soprattutto le fasce più deboli della popolazione – dei necessari antidoti per non essere annebbiata dalle sfavillanti meraviglie tecnologiche e poter rispondere alle costanti sfide che essa pone.

Come afferma Tisné: “Democracies cannot afford to be outpaced by technological innovation and constantly be fighting yesterday’s wars”. Ancora una volta, dunque, torna la correlazione tra lo sviluppo della tecnica, la sua inimmaginabile capacità conoscitiva e il funzionamento delle istituzioni democratiche (v. anche, in questo Osservatorio, quando detto qui, qui , qui e qui). Punto centrale, chiave di questa epoca, che si sta mostrando in tutte le sue forme e che dovrà essere affrontato con sempre maggiori consapevolezza, competenza e determinazione.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.