Quanta automazione il welfare state può tollerare per non smarrire se stesso?

Il rapporto Automating Society redatto dall’organizzazione Algorithm Watch presenta un ampio catalogo degli applicativi di welfare digitale recentemente adottati in Europa, stimolando la riflessione sulle relative potenzialità di sviluppo nonché sulle condizioni di perdurante compatibilità con i principi cardine dello Stato sociale.

 

Il Rapporto Automating Society Report (disponibile qui; in questo Osservatorio v. il post introduttivo di B. Carotti, L’Algorithm Watch: un rapporto)offre un’ampia rassegna dei sistemi di intelligenza artificiale attualmente sperimentati da quindici paesi dell’Unione europea.

 

Tra le numerosi tematiche oggetto d’indagine, alcune delle quali saranno approfondite in successivi post dell’Osservatorio, il rapporto contribuisce a mappare le iniziative di digital welfare che diversi Paesi europei stanno sperimentando (sul welfare digitale v. Luci ed ombre dei sistemi di digital welfare state) ed a stimolare la riflessione sulle relative potenzialità di sviluppo.

 

Un primo, rilevante, gruppo di applicativi documentato dal Rapporto è rappresentato dai software per la ricerca di frodi ed usi impropri di benefici e sussidi.

 

Questo è il caso di SyRI (acronimo per “System Risk Indication”), un sistema di intelligenza artificiale sviluppato nel 2014 dal governo olandese per la ricerca di frodi sulle erogazioni dei sussidi sociali (di SyRI si è già parlato qui e qui nell’Osservatorio). Incrociando i dati estratti da diversi database pubblici, il sistema segnala i “profili a rischio”, corrispondenti ai cittadini che presentino – secondo la valutazione algoritmica – un elevato rischio di frode o di uso improprio dei benefici assistenziali ricevuti.

 

Di recente, il sistema è stato però messo al bando dal Tribunale dell’Aia. Accogliendo il ricorso proposto da una coalizione di gruppi per i diritti umani, con sentenza del 5 febbraio 2020, i giudici olandesi hanno, infatti, ritenuto l’incisione sulla privacy dei cittadini coinvolti nel trattamento automatizzato non proporzionata rispetto agli interessi sociali sottesi all’utilizzo di SyRI.

 

Un secondo gruppo di applicativi per l’automazione del welfare pubblico riguarda le funzioni di assegnazione di benefici e sussidi.

 

Il Rapporto documenta l’iniziativa sperimentata – e poi seguita da diverse autorità locali svedesi – dalla città di Trelleborg per la gestione automatizzata delle richieste di rinnovo di talune prestazioni sociali, quali sussidi di disoccupazione, indennità di malattia, assistenza domiciliare e tasse. Come emerso dal rapporto AI Watch – Artificial intelligence in public services del Joint Research Centre per la Commissione europea, tale dispositivo ha consentito di ridurre drasticamente i tempi di evasione delle richieste, che in molti casi non superano le ventiquattro ore.

 

Ciononostante, il persistente difetto di accountability del software – unito ai numerosi casi di data leak verificatisi – ha recentemente indotto lo Stato svedese ad avviare un’indagine, tutt’ora in corso, sull’effettiva legittimità dell’impiego di tale dispositivo.

 

Un terzo gruppo di applicativi di digital welfare riguarda, infine, le attività di supporto alla comunicazione amministrativa.

 

Ad esempio, nel 2018 l’Istituto delle assicurazioni sociali del cantone svizzero di San Gallo ha sviluppato un chatbot con il compito, oltre che di fornire informazioni di carattere generale, anche di valutare le chances di accoglimento della richiesta di riduzione del premio assicurativo che il contribuente si accinga a presentare. Grazie al feedback positivo di questo primo test, l’Istituto svizzero ha in programma di espandere gradualmente il chatbot anche ad altri prodotti assicurativi.

 

Molteplici sono gli spunti di riflessione che è possibile trarre dal Rapporto.

 

Innanzitutto è chiaro che gli algoritmi non sono tutti uguali: mentre l’utilizzo dei chatbot in funzione di supporto informativo sembra avere dato, fino ad ora, buona prova di sé, molteplici esternalità negative sono invece emerse in relazione all’impiego di software nella fase decisionale vera e propria.

 

In secondo luogo, nonostante i vantaggi in termini di efficienza, coerenza e precisione che molti sistemi di ADM sono in grado di assicurare, il report documenta la perdurante opacità dei processi decisionali, i numerosi casi di discriminazione e le sproporzionate violazioni della privacy dei cittadini coinvolti nel trattamento nonché le conseguenti ripercussioni negative sul godimento delle libertà civili.

 

Un welfare state digitale progettato (o meglio, non regolamentato) in questo modo – è stato osservato – offre infinite possibilità per portare la sorveglianza e le intrusioni a livelli nuovi e profondamente problematici.

 

Oltre a queste tematiche, peraltro comuni a tutti i casi in cui gli algoritmi sono utilizzati nei processi decisionali pubblici (già trattate nell’Osservatorio, ad esempio, qui e qui), l’automazione del welfare pubblico ha specifici riflessi sull’effettività stessa della tutela assistenziale.

 

A causa delle persistenti forme di digital divide, la tendenziale automazione del welfare pubblico potrebbe sortire l’effetto di escludere proprio le fasce sociali più vulnerabili, ossia i principali destinatari delle misure di sostegno.

 

Inoltre, il welfare digitale potrebbe agevolare il transito verso un procedimento istruttorio algido e burocratico, lontano da quella matrice solidaristica che è alla base dello stesso Stato sociale.

Una legalità cieca, è stato detto, può essere anch’essa ingiusta laddove non tiene in considerazione alcuna le circostanze del caso particolare.

 

Espungere il “fattore umano” – proprio in un ambito in cui le condizioni di vita, individuali ed irripetibili, del richiedente possono assumere un rilievo decisivo ai fini del giudizio di spettanza della misura di sostegno – potrebbe condurre a risultati iniqui e sproporzionati, come molteplici esempi documentati nel Report hanno già contribuito a dimostrare.

 

Affinché lo Stato sociale non smarrisca se stesso, l’implementazione dei sistemi ADM dovrebbe allora avvenire in coerenza con i riferimenti valoriali – in primis il principi di solidarietà e di uguaglianza – che sono alla base del welfare state, mantenendo saldo il ragionevole (seppure imperfetto) baricentro umano.

 

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.