Ma siamo davvero sicuri che l’intelligenza artificiale sia più efficiente di quell’umana? Spunti di riflessione sulla decisione amministrativa algoritmica rispetto alle garanzie personali e ai rischi di possibili discriminazioni (cd. Bias) e di minacce per la democrazia.

L’utilizzo dell’intelligenza artificiale nei processi decisionali della pubblica amministrazione impone una attenta riflessione sulla tenuta delle garanzie individuali su cui si fonda lo statuto costituzionale della pubblica amministrazione e soprattutto impone un’accurata indagine sull’impatto che il ricorso all’algoritmo determina sulla tutela dei dati personali, sotto il profilo del rischio dei cd. “bias” ovvero delle discriminazioni che possono discendere da un uso distorto del potere di profilazione e utilizzo dei dati personali. La dottrina, sulla base dei primi orientamenti giurisprudenziali, si sta interrogando su tali questioni, con posizioni che, seppur divergenti sul piano dell’inquadramento giuridico della decisione amministrativa algoritmica, converge sulla tesi della insostituibilità della intelligenza umana a quella artificiale. Tuttavia, le indagini sino ad oggi svolte sull’analisi predittiva automatizzata nei procedimenti amministratavi, e i rischi denunciati anche da studiosi matematici americani, come Cathy O’ Neil, inducono a metter in dubbio l’efficienza della decisione algortimica, almeno finchè non intervenga una legislazione, nazionale e sovranazionale, che regoli la materia, prevedendo una tutela specifica avverso le possibili discriminazioni che possono derivare da un uso scorretto e distorto dei dati utilizzati per la elaborazione delle soluzioni automatizzate.

 

 

La società della informazione e della comunicazione 4.0 impegna attualmente la dottrina a chiedersi, se e in che misura, sia possibile accogliere l’introduzione degli algoritmi all’interno della attività amministrativa e in particolare, se questi possano sostituirsi alla attività umana nell’adozione di una decisione amministrativa.

In altri termini, si discorre se l’intelligenza artificiale sia in grado di replicare i processi cognitivi della intelligenza umana, rimuovendo, invero, tutti quelle imperfezioni derivanti dalla emotività umana che possono comprometterne l’esito.

Sotto altro profilo, poi, l’applicazione degli algoritmi ai processi decisionali amministrativi impone una ulteriore riflessione sulla compatibilità di tali strumenti con le garanzie imposte dalla legge sul procedimento amministrativo a tutela delle situazioni soggettive incise dal potere pubblico. Ci si riferisce, in particolare, ai paradigmi di trasparenza e partecipazione (di questo si è parlato nel numero monografico della rivista Giurisprudenza italiana recensito qui).

Sebbene l’amministrazione sia ricorsa all’analisi predittiva, basata sulla intelligenza artificiale, solo in alcune specifiche fattispecie, ciò ha consentito alla giurisprudenza amministrativa, come rilevato in precedenza qui, di fissare alcuni principi volti a preservare le garanzie procedimentali che presidiano l’esercizio del potere amministrativo, a fronte della potenziale lesione di situazioni giuridiche soggettive, tutelate dall’ordinamento.

In particolare, occorre tener conto di due orientamenti principali.

Il primo, che nega la possibilità di applicare le tecnologie in sostituzione della attività svolta dal funzionario umano in quanto “le procedure informatiche, finanche ove pervengano al loro maggior grado di precisione e addirittura alla perfezione, non possano mai soppiantare, sostituendola davvero appieno, l’attività cognitiva, acquisitiva e di giudizio che solo un’istruttoria affidata ad un funzionario persona fisica è in grado di svolgere” (cfr. Tar Lazio, sez. III bis, sentenza n. 9230/2018).

Il secondo orientamento, circoscrive il ricorso agli strumenti algoritmici nei limiti in cui questo consente “di  correggere le storture e le imperfezioni che caratterizzano tipicamente i processi cognitivi e le scelte compiute dagli esseri umani”  (Cfr., da ultimo,  Consiglio di Stato, sez. VI, sentenza n. 881/2020). Sì che, in questa prospettiva, evocando la regola della funzionalizzazione dello strumento tecnologico all’uomo, i giudici amministrativi affermano che   la decisione della p.a. non può essere raggiunta solo attraverso il calcolo automatizzato dei dati, ma deve essere il frutto di scelte imputabili alla persona fisica preposta all’adozione del provvedimento finale, di cui è responsabile.

Scelte che riguardano sia la costruzione del meccanismo algoritmico (che attiene alla sezione dei dati, alla individuazione delle priorità che si intendono perseguire, alla determinazione delle possibili variabili) sia la formulazione di un giudizio fondato sull’esito della valutazione informatizzata.

Quanto esposto porta a ritenere come la definizione e l’applicazione di regole giuridiche ai modelli decisionali algoritmici richieda una matura conoscenza del funzionamento dei sistemi informatici e dei processi di elaborazione dei dati selezionati, che allo stato non può dirsi ancora raggiunta. Di conseguenza, la effettiva integrazione degli strumenti di intelligenza artificiale nei processi valutativi svolti dalle pubbliche amministrazioni necessiterebbe di figure professionali in grado di definire le logiche adottate dall’algoritmo, secondo le più comuni norme giuridiche e sociali (ne abbiamo parlato qui).

Il che non è affatto scontato. Anzi, è prevedibile che la responsabilità di tale adattamento venga trasferita, quasi esclusivamente in capo al giudice amministrativo.

Se dunque, appare difficile reperire tali professionalità all’interno delle amministrazioni, anche in ragione dell’età anagrafica dei funzionari che la popolano (prossima alla pensione), sembra logico ritenere che la decisione amministrativa algoritmica possa essere legittimamente adoperata solo a fronte di un sistema di elaborazione dei dati trasparente e intellegibile, sia sotto il profilo della selezione dei dati, sia sotto il profilo della individuazione della soluzione “suggerita”, in grado, cioè, di rendere accessibile il processo di analisi predittiva anche al funzionario privo di tali specifiche competenze.

Al riguardo, non può fare a meno di osservarsi, infatti, che uno dei problemi più sentiti, sotto il profilo delle garanzie individuali a tutela della persona è quello dei cd. “bias”, ovvero delle possibili discriminazioni che possono discendere dalle decisioni pubbliche “automatizzate” (ne abbiamo parlato qui). Il tema è stato affrontato, tra gli altri, da C. O’Neil, matematica e scrittrice statunitense, che, nel saggio “Weapons of math destruction”, dimostra come lo scorretto utilizzo dei Big data possa incrementare le disuguaglianze e minacciare seriamente la democrazia  (v. le recensione al testo qui). In particolare, tra i rischi dei pregiudizi che possono generarsi dai “difetti” della tecnologia, secondo quanto emerge anche dal documentario “Coded Bias” (prodotto da Netflix), vi è quello dell’uso del riconoscimento facciale, rivelando come, a seconda dei dati profilati (etnia, religione, colore della pelle, sesso), sia possibile creare identikit di persone “pericolose”, esponendo le stesse, per il solo fatto di somigliare a tale “descrizione”, a gravi pregiudizi da parte delle autorità pubbliche, come forze dell’ordine e tribunali, che possono persino giungere ad infliggere sanzioni o, finanche, provvedimenti restrittivi della libertà personale.

Tali considerazioni mettono quindi in luce un ulteriore profilo di indagine, che riguarda la relazione che intercorre tra utilizzo dell’algoritmico e gestione e tutela dei dati personali.

L’intreccio dei profili di garanzia che presidiano il procedimento amministrativo con quelli che tutelano l’utilizzo dei dati personali, non è, invero, sfuggita all’analisi attenta dei giudici amministrativi che, nelle decisioni prima richiamate, ha fatto riferimento proprio alle indicazioni normative del Regolamento generale sulla protezione dei dati, del Parlamento europeo e del Consiglio del 27 aprile 2016.

Tale Regolamento, infatti, ha dedicato specifica attenzione alla decisione algoritmica come processo che, elaborando in modo automatizzato i dati inseriti dal funzionario, solleva il rischio di opacizzare la sorte del dato utilizzato. In tal senso va letto, infatti, l’art. 22 del citato provvedimento, secondo cui “l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”.

Sembrerebbe quindi che il regolamento, pur riconoscendo le potenzialità di strumenti di IA, avverta implicitamente il rischio che questi non siano in grado di osservare i paradigmi di trasparenza e accessibilità, limitandone, quindi, l’uso nei casi in cui la decisione possa produrre effetti giuridici sull’interessato.

Sulla base di tali considerazioni, si potrebbe ritenere che, quando si ricorre alla decisione algoritmica, le garanzie procedimentali, di cui alla legge 241/90, si rafforzano sulla base delle disposizioni nazionali e sovranazionali sul trattamento dei dati personali. Questo potrebbe significare che per soddisfare il principio di trasparenza, ad esempio, non sarà più sufficiente che l’amministrazione renda conoscibile ai soggetti interessati la mera descrizione del software, ma occorrerà̀ garantire l’accesso al codice sorgente, anche sotto il profilo del controllo sulla selezione dei dati e sul trattamento ad essi riservato.

Sì che si torna alla domanda che ci si è posti all’inizio: siamo davvero sicuri che il ricorso all’analisi predittiva per le decisioni amministrative sia davvero efficiente, nel senso di riuscire a coniugare l’esigenza di semplificazione e tempestività della decisione con le garanzie soggettive, su cui si fonda lo statuto costituzionale della pubblica amministrazione? La risposta, come è intuibile dai dubbi appena adombrati, in merito alla tenuta delle garanzie personali e ai rischi insiti in un uso scorretto o distorto dei dati personali, rimanda all’urgenza di un intervento legislativo, nazionale e sovranazionale, che stabilisca le regole del gioco, intrecciando sia i profili di tutela che tradizionalmente supportano la legittimità del potere amministrativo, sia quelli che attengono, più specificamente, alla protezione della sfera personale, inevitabilmente esposta alla gestione  dei Big data, di cui le amministrazioni sono le principali detentrici. In merito a tale ultimo e specifico aspetto, si segnala, altresì, la necessità di regolare i profili che riguardano la protezione dei dati dai tentativi di manipolazione fraudolenta da parte di haker. Sì che, è prevedibile, che, l’evoluzione dell’applicazione dell’analisi predittiva, e della sua disciplina, si muoverà nel solco dello sviluppo della tecnologia block-chain, affrontata qui, quale sistema di catalogazione dei dati in grado di assicurare la immodificabilità degli stessi, che, tuttavia produce un impatto negativo sull’ambiente, di cui bisognerà tener conto.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale