Government by Algorithm: l’intelligenza artificiale nell’esperienza delle Agenzie Federali Amministrative statunitensi

di Francesco Grasselli

I cittadini statunitensi fanno affidamento sul Governo Federale non soltanto per la garanzia della pubblica sicurezza e la promozione del welfare, ma anche ai fini della protezione ambientale; implementazione del sistema sanitario nazionale; promozione, innovazione del mercato del lavoro e aumento degli standard occupazionali. Pertanto, nel momento in cui le Agencies federali sviluppano nuove regole e linee guida, nonché pronunciano, implementano o altrimenti applicano opzioni politico-legislative, esse vanno incontro a inevitabili mutamenti del contesto economico, sociale e tecnologico. L’incessante evolversi della sofisticatezza dell’Intelligenza artificiale e del Machine Learning, nonché l’aumento di interesse nei loro confronti è una delle più rilevanti sfide – nell’ambito dei più generali mutamenti del contesto socio-economico – che le Agenzie federali americane abbiano mai dovuto affrontare negli ultimi decenni. E, del resto, una delle più grandi sfide anche per l’Unione Europea.

Gli algoritmi, nonostante l’incessante crescita della loro influenza nelle nostre vite, rimangono in parte una “black box” agli occhi – in specie – del giurista. Mantenere sotto controllo tutti i rischi – attuali e potenziali – che scaturiscono da decisioni automatizzate e sistemi di intelligenza artificiale è una sfida sia per la società sia per l’ordinamento giuridico. Questo contributo, occasionato da un report commissionato dalla Administrative Conference of the United States alla Stanford University e alla NYU, si propone di offrire una sommaria panoramica – in chiave comparatistica – delle esistenti (ma adattabili) soluzioni legali proposte nell’ordinamento statunitense unitamente a delle proposte di implementazione anche per il sistema italiano.

Il recente rapporto summenzionato affronta un tema attuale: l’Intelligenza artificiale (da ora in poi IA), le sue possibili applicazioni, i rischi applicativi e la regolamentazione degli stessi. Tutto ciò, considerato alla luce delle trasformazioni sociali e giuridiche che accompagnano e a volte – purtroppo – seguono l’innovazione tecnologica.

L’IA, nell’esperienza statunitense, sembrerebbe promettere una radicale trasformazione circa il funzionamento delle Agencies. I rapidissimi sviluppi dell’IA sembrerebbero infatti avere il potenziale per ridurre il costo delle principali funzioni di governance, per migliorare la qualità delle decisioni, per liberare il vero potere dei dati amministrativi; in tal modo rendendo la performance governativa più effettiva e più efficace. Le Agencies che stanno adottando il modello IA devono però necessariamente confrontarsi con il problema di un adeguato disegno degli algoritmi; con i rispettivi obiettivi perseguiti dal decision-making umano e quello robotico; con i limiti tra l’azione pubblica e l’autonomia negoziale privata; con la propria capacità di imparare un uso corretto dell’intelligenza artificiale; infine, comprendere i casi in cui, effettivamente, l’uso dell’IA sia legittimo o meno.

Questi temi sono fondamentali per il dibattito pubblico e accademico, che ha interessato anche la dottrina statunitense. Eppure, ancora molto poco si conosce rispetto all’uso corrente che le Agencies stanno facendo dei sistemi IA a parte qualche esempio sensazionalistico o qualche descrizione meramente superficiale. Inoltre, pochissima attenzione è stata dedicata al modo in cui le Agencies acquisiscono tali strumenti ab origine o controllino il loro utilizzo. Nel tentativo di riempire questi vuoti il report che ha dato origine all’odierno dibattito offre tre spunti dell’utilizzo dell’IA da parte delle Federal Agencies:

Un vaglio circa l’utilizzo dell’IA nei 142 principali federal departments; agencies e sub-agencies (Parte I)

Una serie di approfonditi Case studies delle specifiche applicazioni dell’IA in sette principali agencies e delle loro “governance tasks” (Parte II)

Una serie di analisi trasversali delle sfide istituzionali, legali e politiche sollevate dall’utilizzo dell’IA da parte delle Federal Agencies (Parte III).

Dal report emerge, infatti, che circa il 45% delle organizzazioni federali prese in considerazione dallo studio erano in fase di sperimentazione ovvero già facevano utilizzo della tecnologia IA/machine learning, in particolare in relazione ad un’attività di cd. “regulatory monitoring”. Secondo tale studio, l’utilizzo di AI-assisted tools è maggiormente preminente nel reparto giustizia, inclusa l’area del Patent and Trademark Office. Per esempio tali strumenti hanno trovato impiego nell’attività dei cd. patent reviewers volta a classificare i brevetti all’interno di ben 10.000 opzioni possibili. Per quanto riguarda i marchi, invece, il cd. “image similarity” è stato utilizzato dai reviewers al fine di comparare le nuove richieste di registrazione con quelle già presentate in passato.

La ricerca offre allora l’occasione di affrontare le criticità connesse a questi strumenti e, in particolare, le sfide associate con la distribuzione dell’IA tra i vari corpi federali: il cd. “gaming” e il cd. “adversarial learning”, che, in pillole, si riferiscono alle tattiche elaborate nel tentativo di confondere gli algoritmi. Ad esempio: come risolvere il problema del conflitto di interessi, qualora uno sviluppatore esterno di software miri a capitalizzare la propria conoscenza da “insider” delle operazioni delle Agenzie governative, magari dopo aver partecipato alla co-creazione dei tools stessi?

Per quale motivo, allora, è così importante che gli strumenti di algorithmic decision-making utilizzati dalle agenzie federali statunitensi siano il più possibile equi e trasparenti? In effetti, a differenza della giurisdizione – ad esempio – britannica, le decisioni assunte dalle Federal Agencies non sono tipicamente sottoposte a controllo giurisdizionale. Dunque, in assenza di una riforma del controllo giurisdizionale, ovvero di un’azione legislativa da parte del Congresso, varie sono le opzioni possibili tramite le quali gli AI-assisted tools utilizzati dalle agenzie federali possono essere assoggettati ad una “algorithmic accountability”: essenzialmente, l’analisi e/o la verifica ex post.

In conclusione, considerato che gli Stati federali presentano una molteplicità eterogenea di algoritmi predittivi, è necessaria una futura attività volta ad inquadrare tali dispositivi e i loro potenziali campi applicativi (anche) nel quadro europeo. Il dato da cui partire è piuttosto la necessità di un approccio antropocentrico all’intelligenza artificiale, che postula il rispetto della dignità e dell’autonomia delle persone alle quali va sempre garantito un potere di supervisione sulle macchine (AI is human-centric).