L’Algorithm Watch: un rapporto

La bellissima iniziativa di Algorithm Watch restituisce un quadro completo e spesso preoccupante rispetto all’introduzione di algoritmi nelle decisioni che concernono aspetti importanti della vita sociale e dell’attività delle istituzioni. In questo primo post che l’Osservatorio dedica al rapporto, vengono tracciate le linee generali del lavoro, l’impostazione che ne è alla base, gli elementi di fondo delle proposte che vengono elaborate. Chiave di lettura è l’osservazione che si è già in una fase di “automated society” e non più solo “automating”: il divenire è ormai essere.

 

 

Un tempo avevamo l’Icann Watch, una guardia contro l’ente centrale del sistema dei nomi a dominio. Molti i tecnici ed esperti, di varie discipline, che intervenivano sul sito e sottoponevano a un vaglio critico e serrato le attività dell’ente.

Oggi abbiamo Algorithm Watch, una iniziativa che raccoglie studiosi europei che stanno analizzando sotto numerosi profili gli effetti dell’uso esteso degli algoritmi sulla società. Sotto il piano istituzionale, economico e giuridico. Algorithm Watch offre un punto di vista privilegiato. Da più di un anno contribuisce a diffondere consapevolezza sull’uso degli algoritmi e sull’impatto – ormai evidente – nella società. Anche per il loro uso da parte delle istituzioni.

A ottobre scorso è stato pubblicato il Rapporto su Automated Society Report (disponibile qui). Frutto del lavoro di quarantatré studiosi dopo una indagine estesa, e pubblicato con licenza Creative Commons, il rapporto restituisce un quadro molto interessante, copre quindici Paesi e tratta una serie notevoli di temi e problemi. È anche corredato da una serie di illustrazioni appositamente realizzate per il lavoro, molto efficaci e fruibili.

Anche in questo caso, data la complessità del tema, come avvenuto per il Report del Congresso Usa sulle Big Tech, l’Osservatorio ne darà conto in più interventi. Dopo questa introduzione generale, Antonella Mascolo scriverà in ordine ad alcune tematiche trasversali. Quindi, sarà svolta una intervista a uno dei principali autori, Fabio Chiusi.

Nel merito, il rapporto ADM delinea uno scenario di fondo complesso e difficile da decifrare. Che, quindi, cerca di svelare con una impostazione di impatto, corredata da aspetti grafici di rilievo. Al cuore dell’indagine giacciono i processi decisionali automatizzati (Automated Decision Making, ADM), considerati il segno della differenza rispetto al passato. Le decisioni automatizzate e gli algoritmi che ne sono alla base sono, infatti, già parte integrante della realtà che ci circonda. Delle nostre vite. In alcuni casi, degli aspetti più intimi.

Il Rapporto, in questo senso, segna un cambio di rotta: se in una precedente versione dello studio si parlava di automating society, ora si è passati direttamente all’automated society. Il divenire è essere (si citano i casi Italy della “predictive jurisprudence”, sperimentata in Italia, o il monitoraggio dei click degli studenti su mouse e tastiere durante gli esami, effettuato in Danimarca).

Il riconoscimento facciale (di cui abbiamo parlato in diverse occasioni, nell’Osservatorio sullo Stato digitale, ad esempio qui e qui) è ormai una realtà che comporta seri rischi: il modo in cui è costruita tecnicamente, infatti, conduce spesso a deviazioni di varia natura, spesso razziste, come dimostrato dalle più accurate indagini scientifiche e giornalistiche. La trasparenza nelle tecniche è scarsa, tanto che si parla di black box. Viene posta enfasi sulle sfide che cercano di cambiare lo status quo e migliorare l’uso degli algoritmi e delle decisioni automatizzate a beneficio di tutti (è citato come caso emblematico la battaglia legale a SyRI, condotta in Olanda, di cui abbiamo parlato anche qui).

Immancabile lo sguardo sovranazionale, imprescindibile per una risposta adeguata. Da un lato, viene riconosciuto il ruolo positivo giocato dal Consiglio d’Europa, che ha dettato un “substantial and persuasive framework” (si v. la Recommendation CM/Rec(2020)1 of the Committee of Ministers to member States on the human rights impacts of algorithmic systems ); la raccomandazione, infatti, mette in guardia dagli effetti sull’uso estensivo delle tecnologie, che hanno impatti sulla democrazia e sullo stato di diritto. Dall’altro, si parla dell’Unione europea viene lodata l’attenzione, ma criticata l’impostazione che “prioritizes the commercial and geopolitical imperative to lead the AI revolutionover making sure that its products are consistent with democratic safeguards, once adopted as policy tools”.

Vi sono casi positivi, ma sono pochi: il controllo della violenza domestica in Spagna; la lotta alle frodi sulle prescrizioni mediche in Portogallo e Slovenia. In questo scenario, va dunque notata una nota di fondo del Rapporto, che mira a ridurre l’euforia: la tecnologia è un bene, ma va controllata. Non ci si può appoggiare alle sue enormi capacità in maniera incondizionata e senza comprendere i risvolti. Il techno-enthusiasm, in questo senso, può condurre a decisioni inaccettabili e dannose (non a caso si parla di techno-solutionist trap).

Diverse, infine, le raccomandazioni di policy, che possono essere sintetizzate così. Servono chiari meccanismi che assicurino responsabilità: l’accountability per l’uso degli algoritmi deve essere elevata, attraverso un controllo interno ed esterno, coinvolgendo società civile ed esperti indipendenti. Bisogna evitare che tecniche come il riconoscimento facciale si traducano in una sorveglianza di massa indiscriminata (ma discriminante per alcune parti della Società). Occorre diffondere una conoscenza approfondita dei meccanismi in uso, per rafforzare le capacità dei regolatori e innalzare il dibattito pubblico.

La tensione che si percepisce leggendo il rapporto è, dunque, chiara: occorre maggiore coraggio. E questo coraggio deve essere trovato, in primis, a livello politico. Senza coraggio, anche la migliore analisi e la perfetta conoscenza dei meccanismi non aiuterà la società, ma la renderà prigioniera di meccanismi incontrollabili (o controllati da pochi).

Nel bel discorso di Margrethe Vestager del 30 ottobre scorso, ripreso da molti commentatori, si afferma che “[b]ecause if we’re asking whether algorithms are a threat to democracy, the answer is surely yes, they can be – but they don’t have to be. Because our democracies have the power to protect themselves, with rules that make sure algorithms work the way that they should. And in the last few months and years, I think a consensus has been growing that the time has come for us to put these rules into place. You see that consensus in the work of groups in civil society, like AlgorithmWatch, with the valuable evidence you’ve produced about how these algorithms can threaten democracy – and how we can best respond to these threats“.

 

Algorithm Watch, con il suo costante impegno, ha avuto il riconoscimento che meritava.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.