Lo statuto giuridico dell’algoritmo amministrativo

Come capire i problemi legati all’impiego degli algoritmi nel campo della pubblica amministrazione? È particolarmente utile partire da un caso concreto, come quello dell’algoritmo fiscale dell’Indice sintetico di affidabilità fiscale (ISA). La regolazione, la privativa industriale, il diritto di accesso, la comprensibilità, la qualità dei dati sono solo alcuni dei temi che si intrecciano con questa procedura informatica.

 

Per capire i problemi occorre muovere da casi concreti. Uno è sicuramente quello dell’impiego degli algoritmi nel campo dell’attività di accertamento fiscale. Quali utilità sotto il profilo dei risultati amministrativi può offrire? Quali sono le ricadute in termini problematici che da quest’ultimo scaturiscono?

Dal 2019 è stato inaugurato un nuovo sistema di controllo. L’affidabilità fiscale dei contribuenti è decisa da un algoritmo che assegna loro un voto da uno a dieci. Se si riceve da otto in su si ha la certezza di non essere destinatari di accertamenti fiscale e di ricevere in più benefici premiali, come la possibilità di compensare i crediti di imposta fino a 20 mila euro di Irpef e Ires, e il rimborso Iva fino a cinquanta mila euro senza visto di conformità. Se invece il voto è inferiore al sei, si entra in una lista di contribuenti soggetti a controlli presuntivi.

Questa pagella fiscale si chiama “Isa” – che sta per Indici sintetici di affidabilità fiscale – ed è stata introdotta dall’Agenzia delle Entrate per favorire l’assolvimento degli obblighi tributari e incentivare l’emersione spontanea di redditi imponibili. In altre parole, a fini semplificatori per sveltire le pratiche e far pagare le tasse dovute. Uno strumento utile, quindi, se costruito bene. Basti pensare che, nel breve periodo, si stima che sia stato in grado di generare un incasso, secondo il Ministero dell’Economia, superiore ai 2,1 miliardi di euro. È noto che l’indice sintetico si basa sui redditi degli ultimi otto anni e sugli studi di settore degli ultimi dieci. Eppure, come si vedrà, l’algoritmo pone una serie di criticità. Se ne prova a passare in rassegna qualcuna.

Innanzitutto, il sistema è già operativo. L’esempio del sistema di affidabilità fiscale dimostra come l’algoritmo sia una tecnologia a senso unico in cui la macchina si impone dall’alto sugli amministrati. L’amministrazione non ha avuto il bisogno di chiedere l’autorizzazione, né la necessità di un’apposita base legale con fonte primaria che la legittimasse. Gli Isa sono stati introdotti con decreto nel 2017 dal Governo Gentiloni e l’algoritmo che sta alla base lo ha realizzato la società Soluzioni per il Sistema Economico (Sose), una partecipata del Ministero dell’Economia e delle Finanze e della Banca d’Italia che ha effettuato gli indici per centosettantacinque attività.

L’impiego di tale algoritmo non risponde ad una regolazione ben precisa perché allo stato quest’ultima è carente. Si tratta di una soluzione ibrida, a metà strada tra una decisione amministrativa robotica, basata secondo una procedura informatica, e un AI Machine Learning. I primi sono algoritmi deterministici i quali producono un risultato prevedibile e lavorano con medium o small data. I secondi sono non deterministici ossia non prevedibili, vantano la capacità di apprendere autonomamente e si basano su sistemi predittivi in grado di anticipare le scelte; essi richiedono dati diversi ossia big data. Perché il sistema Isa è ibrido? Da un lato, perché lavora su dati specifici e dovrebbe produrre un risultato certo. Dall’altro, però non è chiaro esattamente quale sia il funzionamento dell’algoritmo. Insomma, Isa non è propriamente una black box, eppure non è agevole ricostruire con certezza il percorso che la macchina ha fatto per raggiungere quel risultato.

Per di più, l’algoritmo Isa è soggetto a privativa industriale e diritto di proprietà. Difatti, a fronte di una richiesta di accesso fatta da un’associazione di consumatori, la società Sose si è sottratta alla stessa, affermando che la società ha “lavorato al progetto per conto dell’Agenzia delle Entrate e del MEF, e che quindi sono loro i soggetti preposti a rispondere”. Ciò rende complicato individuare chi è tenuto a rendere conto e a spiegare il funzionamento dell’impiego di tale sistema: se l’Agenzia che ne usufruisce nelle sue funzioni di accertamento, ovvero la società che lo ha prodotto.

Se ciò è vero, sembra emergere la non agevole applicabilità dei paletti posti anche di recente dalla giurisprudenza amministrativa (in particolare, Consiglio di Stato sentenza n. 8472/2019) con cui è stata ribadita l’affermazione anche di fronte alla regola algoritmica del diritto di accesso (pur al di là del segreto industriale) e del diritto alla conoscibilità ai sensi dall’art. 22 del Regolamento Generale sulla Protezione dei Dati Personali (“GDPR”), e del diritto alla spiegazione nell’ambito della decisione algoritmica automatizzata.

Il secondo problema attiene alla qualità dei dati e ai rimedi da impiegare qualora i dati fossero sbagliati. Qui sorgono le difficoltà, perché i coefficienti predeterminati dall’Agenzia delle Entrate sono immodificabili, come pure alcuni dati seppur erronei, e gli esiti non sono sempre coerenti con l’attività esercitata. Può capitare che l’indice di “insufficienza” aumenti nei casi in cui non dovrebbe o che al contrario affidi un punteggio alto a soggetti borderline. Per esempio, l’indice di una libera professionista che ogni anno abbia dichiarato 50 mila euro e nel 2018 ne abbia dichiarati molti di meno, perché in maternità, potrebbe diventare anomalo; così come la società che abbia fatturato meno rispetto agli anni precedenti perché disponga di un immobile sfitto; oppure l’azienda che eccezionalmente si sia trovata a pagare in un determinato anno solare cento mila euro di spese legali straordinarie.

Il terzo problema riguarda la ridotta interazione con l’algoritmo. Qui non viene in aiuto ai contribuenti il soccorso istruttorio, dal momento che la regola algoritmica rappresenta una procedura rigida, quasi predeterminata. Il fatto che non sia possibile indicare i fattori che incidono sul reddito complica l’ordinaria gestione del rapporto con l’amministrazione finanziaria, tenuto conto che gli Isa riguardano sei milioni di soggetti, fra imprese e partite Iva, esclusi i forfettari e i grandi contribuenti. Ad esempio, se un negozio dovesse subire lavori in corso per il rifacimento dei marciapiedi davanti al negozio, inevitabilmente in quell’anno solare incasserà meno. In passato gli studi di settore già ne tenevano conto, mentre gli Isa non consentono di segnalare tali situazioni marginali. Per risolvere questo inconveniente, ad esempio, nell’ordinamento francese l’amministrazione è quantomeno obbligata ad informare sull’uso dell’algoritmo offrendo al privato che lo pretenda il diritto a richiedere l’intervento umano, come previsto nella risoluzione del Parlamento europeo sulla robotica. In altre parole, emerge in modo evidente la necessità di coordinare l’attività umana con il machine learning nella direzione di un approccio antropocentrico in cui l’algoritmo fa parte del procedimento amministrativo ma a patto che sia soggetto all’intervento umano.

In questa chiave, sono chiare le incoerenze di sistema. Per rimediare ad un indice di affidabilità negativo, nella dichiarazione dei redditi è prevista una voce che invita a pagare di più e fornisce le cifre su cui fare il calcolo, a seconda del punteggio che si intende raggiungere. Sulla somma aggiuntiva occorre ovviamente pagare tasse e Iva. Si tratta di un rimedio che, da una parte, rischia di vessare il contribuente onesto nell’ottica di massimizzare gli introiti (e non di far pagare il giusto), da un’altra, non “vede” l’incoerenza di quei contribuenti che decidono di pagare qualcosa in più per accaparrarsi i benefici premiali, e non li concede a chi invece li meriterebbe; infine, offre una temporanea scappatoia amministrativa ai disonesti che magari utilizzano i crediti d’imposta con fatture false. In sintesi, se l’obiettivo maggiore è disegnare l’algoritmo in modo che consenta di rivedere i risultati, l’obiettivo minore è quantomeno che lo stesso sia usato come un sussidio con tutti i suoi difetti decidendo volta per volta se tenerne conto o meno. Il sistema dovrebbe diventare da prescrittivo a predittivo, dando la possibilità all’operatore amministrativo all’esito di un’istruttoria più completa di discostarsene.

Non si può però affermare che l’indice di affidabilità fiscale sia neutrale, dal momento che vanta di per sé una sua forza trasformativa e persuasiva. La macchina può produrre decisioni anche errate, ma, più che incidere sul sistema delle responsabilità individuali, ciò che è stato prodotto rappresenta pur sempre un parametro avente la forza di incidere sulla sequenza procedimentale. Quale impiegato se la sente di affermare il contrario della macchina e assumersi la relativa responsabilità? Pur tenendo conto delle specificità di ogni caso concreto, il funzionario fiscale si assume la responsabilità erariale di non far partire l’accertamento fiscale non tenendo conto dei risultati dell’algoritmo? Sotto questo profilo, i sistemi di deep learning conformano in ogni caso i comportamenti dei funzionari pubblici, al di là del contributo che può venire dall’automazione.

Ciò chiama in gioco il sistema valoriale adattato al contesto del settore nel quale si interviene, ossia se vengano in rilievo interessi sensibili o super-sensibili che meritano particolare salvaguardia. Cosa preferisce l’ordinamento? Un evasore che la fa franca in più o un contribuente fedele vessato in meno? È una scelta di policy making o di politica del diritto che merita attenzione, e potrebbe essere oggetto di analisi empirica (è maggiore la domanda dei cittadini verso un sistema fiscale equo in cui tutti adempiono il loro dovere, che si riflette in termini di maggiore legittimazione democratica, ovvero è più numerosa la richiesta di rispetto dei diritti del contribuente nei confronti di un’incipiente amministrazione finanziaria?).

Infine, merita attenzione il tema del sindacato sulla regola algoritmica. La semplice realtà è che un vero controllo dell’algoritmo è difficile. La macchina può fare una predizione, ma non è agevole spiegare come sia arrivata a quel risultato. Per sindacare un atto esclusivamente algoritmico, è necessario invece avere piena conoscenza della regola tecnica, sapere come funziona, svolgere appieno il diritto alla spiegazione che, come sopra visto, non incontra negli Isa facile cittadinanza.

In conclusione, ciò dimostra come il regolamentare (che passa attraverso la governance) è importante per indirizzare il lavoro dei ricercatori e degli sviluppatori di programmi per le pubbliche amministrazioni. La peculiarità degli algoritmi fondati sui big data è che le previsioni non hanno la propria base su un ragionamento logico, ma su correlazioni ricorrenti. Le informazioni costituiscono così la base delle decisioni dell’amministrazione, la quale vanta un supporto in grado di consentire determinazioni più efficaci ed effettive. La macchina non vede la realtà, ma si costruisce una propria rappresentazione e percezione della realtà senza una consapevolezza del contesto.

L’impiego degli algoritmi nelle decisioni amministrative sembra aprire lo spazio e mostrare la necessità di una governance del settore, in cui conti l’architettura ossia come viene disegnato il digitale e l’algoritmo che ad esso si conforma – l’ethics by design – affinché nella costruzione del programma algoritmico sia garantito il rispetto dei diritti umani e il divieto di discriminazione. I sistemi dovrebbero essere costruiti in modo che spieghino come si arrivi alla decisione, valorizzando la spinta partecipativa dei destinatari dell’algoritmo e l’interlocuzione con la macchina, nonché la personalizzazione con l’inserimento di dati nuovi. Dovrebbero essere incentivate forme complementari e non sostitutive della creatività umana. Dunque, non un sistema uguale per tutti, ma adattato alle singole realtà personali nella fase di design dell’algoritmo.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.