Le agenzie federali USA al banco di prova dell’intelligenza artificiale

Secondo il rapporto redatto dalle Università di New York e di Stanford l’intelligenza artificiale è in grado di rivoluzionare l’azione delle agenzie governative statunitensi, a patto che le amministrazioni capiscano come utilizzarla ed implementarla correttamente.

Nel mese di febbraio 2020 le Università di New York e di Stanford hanno pubblicato il rapporto Government by Algorithm: Artificial Intelligence in Federal Administrative Agencies commissionato dall’ACUS (Administrative Conference of United States).

La ricerca è stata condotta da un gruppo di lavoro composto da giuristi, informatici e studiosi di scienze sociali su un campione di 142 agenzie ed enti federali USA allo scopo di “mappare” l’attuale impiego delle tecnologie di intelligenza artificiale in campo amministrativo ed individuare le possibili linee di sviluppo.

Secondo quanto emerge dal rapporto, ben 64 agenzie federali – ossia quasi la metà del campione di riferimento – stanno già sperimentando, seppure con gradazioni diverse a seconda degli specifici settori, le tecnologie di intelligenza artificiale nell’esercizio delle proprie funzioni amministrative.

Pur essendo il numero complessivo di applicazioni pratiche delle tecnologie di intelligenza artificiale in campo amministrativo relativamente elevato (157), la relativa distribuzione tra le agenzie federali risulta però nient’affatto omogenea: a tutt’oggi, infatti, il 7% delle agenzie è responsabile del 70% delle applicazioni complessive dell’IA nel settore amministrativo.

Per quanto concerne le aree tematiche, l’impiego dell’intelligenza artificiale risulta fortemente concentrato nei settori di giustizia, sanità e finanza, mentre restano ancora marginali le relative applicazioni nel campo dell’istruzione, dell’housing sociale e dei trasporti pubblici.

Rispetto ai compiti affidati all’intelligenza artificiale, è significativo che le agenzie federali utilizzino gli algoritmi intelligenti soprattutto in materia di regolazione, analisi e monitoraggio (ad esempio per predire potenziali illeciti penali o per pianificare la distribuzione di posti letti ospedalieri in una certa area), per fornire assistenza al pubblico (come è nel caso del chatbot messo a punto per fornire assistenza in materia di immigrazione), oltre che per gestire la propria organizzazione interna.

Tutt’ora marginale risulta, invece, l’impiego degli algoritmi nella fase decisoria vera e propria, sia in ausilio che in sostituzione del funzionario umano.

Per quanto riguarda la programmazione del software, in due terzi dei casi i programmi sono stati elaborati direttamente da personale interno all’amministrazione (il 53%) oppure in collaborazione con enti non commerciali (13%). Nei restanti casi il software risulta direttamente fornito da operatori privati esterni.

L’eterogeneità dell’impiego delle tecnologie di intelligenza artificiale tra le agenzie federali si riflette anche con riferimento agli stadi di implementazione. Solo nel 33% dei casi le tecnologie sono pienamente utilizzate, mentre nei restanti casi risultano ancora in fase di pianificazione (38% dei casi) o di pilotaggio (29% del totale).

I risultati dell’impiego di tali tecnologie di intelligenza artificiale sono fino ad ora incoraggianti: il rapporto conferma che gli algoritmi consentono di ridurre sensibilmente il costo delle funzioni di governance di base, migliorare la qualità delle decisioni ed assicurare una maggiore neutralità, rendendo le prestazioni del governo complessivamente più efficienti ed efficaci.

Tuttavia, non è possibile trascurare che tale efficienza presenta costi elevati in termini di accountability, di eguaglianza e di trasparenza.

Per quanto più intelligenti degli omologhi umani, gli agenti artificiali non sono affatto immuni da pregiudizi e discriminazioni, sia veicolati dai programmatori che autonomamente appresi nei processi di autoapprendimento.

Inoltre, a causa della grammatica binaria dell’algoritmo e della struttura delle reti neurali, il procedimento algoritmico risulta connotato da un’intrinseca opacità, essendo il linguaggio macchina incomprensibile per tutti coloro che non abbiano competenze informatiche avanzate.

Tale opacità algoritmica è poi ulteriormente aggravata nel caso di algoritmi capaci di machine learning e di deep learning, i quali evolvono continuamente rendendo impossibile, anche per lo stesso programmatore, un controllo puntuale sull’attività dell’algoritmo in azione.

A tutt’oggi, conclude il rapporto, mancano soluzioni definitive per fare fronte tali ordini di problemi.

Per affrontare le sfide poste dagli algoritmi e sfruttarne appieno le potenzialità – assicurando la contemporanea tenuta dei principi generali e delle fondamentali garanzie individuali – è essenziale, conclude il rapporto, un approccio interdisciplinare che impegni giuristi, informatici ed esperti nel campo del scienze sociali, in grado di individuare soluzioni diversificate a seconda degli specifici campi applicativi e degli interessi di volta in volta presenti sul terreno di gioco.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.