‘A1: Shaping our integrated future’ – Una riflessione sul futuro dell’intelligenza artificiale

Molte delle azioni che svolgiamo sul web sono gestite da algoritmi complessi. Questi ultimi semplificano, e accelerano, la ricerca e catalogazione di informazioni. In alcuni casi però contribuiscono anche ad alimentare le disparità sociali, violano alcune libertà fondamentali o addirittura contribuiscono all’ascesa di governi autoritari. Le opinioni di coloro che discutono delle opportunità e dei rischi legati alla diffusione dell’intelligenza artificiale convergono su un punto: occorre individuare regole chiare che pongano limiti alle aziende del settore, guidino l’azione degli sviluppatori e, al tempo stesso, tutelino gli utenti. ‘A1: Shaping Our Integrated Future’, pubblicato dalla Rockefeller Foundation, raccoglie le idee e proposte sul tema, elaborate da un gruppo di esperti internazionali. Tra i temi affrontati nel rapporto, risaltano quello della regolazione e del controllo pubblico dei sistemi di intelligenza artificiale.

 

Nel Novembre del 2019 la Rockefeller Foundation ha riunito un gruppo di quattordici esperti di estrazione culturale e professionale molto diverse: economisti, giuristi, filosofi, artisti e filantropi. A costoro ha chiesto di riflettere, confrontandosi, sul ruolo che l’intelligenza artificiale svolge nella vita quotidiana di un numero crescente di individui. Il dibattito si è concentrato sulle opportunità offerte dai sistemi di intelligenza artificiale, e in particolare sulle azioni che i regolatori pubblici dovranno realizzare per garantirne uno sviluppo sostenibile, una equa distribuzione e un’applicazione inclusiva di tutti gli interessi coinvolti.

Le proposte e le idee circolate nel corso del dibattito sono ora accessibili al pubblico, ordinate all’interno di un rapporto pubblicato nella primavera del 2020. Tra gli spunti di interesse offerti dal testo, ce ne sono due particolarmente importanti. Il primo riguarda la funzione primaria dei sistemi di intelligenza artificiale. Per lungo tempo la prospettiva dominante si è focalizzata sulla profittabilità dei sistemi di intelligenza artificiale. Chiaramente questa impostazione così attenta alle esigenze del mercato ha finito per favorire le priorità dettate da coloro che vi operano, le grandi aziende del settore, a discapito degli utenti finali. Sarà necessario, in futuro, ricalibrare gli obiettivi e dare maggiore importanza alla componente umana. Oggi si parla sempre più di human-centered AI – intelligenza artificiale calibrata sui bisogni degli individui.

Al riguardo, alcune delle proposte discusse nel rapporto hanno un potenziale dirompente. Amir Baradan della Columbia University, insieme a Katarzyna Szymielewicz della Panopticon Foundation e Richard Whitt del GLIAnet Project, suggeriscono ad esempio un “capovolgimento” del diritto d’accesso alle informazioni online. Anziché offrire agli utenti la possibilità di accedere alle informazioni personali che hanno ceduto alle aziende tech, modificandole, suggeriscono di costringere le piattaforme e tutti gli altri operatori economici operanti sul web a richiedere il consenso all’utilizzo dei dati di ciascun utente, per ogni utilizzo. Propongono, inoltre, la separazione netta tra la funzione di analisi dei dati e la conservazione degli stessi, favorendo la prima e limitando fortemente la seconda.

Il secondo tema è di grande attualità: è preferibile proseguire sul versante della auto-regolazione oppure favorire l’intervento pubblico? Negli ultimi anni, i regolatori pubblici nazionali e sopranazionali hanno procrastinato l’adozione di regole a tutela dei diritti dei consumatori o a presidio della concorrenza leale. Lo hanno fatto, in parte, a causa della rapida ascesa delle aziende di settore e del timore di introdurre limiti troppo stringenti all’innovazione tecnologica. In parte, la scelta è stata motivata anche dall’opportunità di difendere interessi economici nazionali, soprattutto da parte degli Stati Uniti. Più recentemente, la percezione da parte della comunità internazionale è cambiata. La domanda di regole è stata sollecitata da casi noti alla cronaca internazionale (il caso Cambridge Analytica, ad esempio).

Sul punto, Stefaan Verhulst, cofondatore e Chief Research and Development Officer del Governance Laboratory presso la New York University, guarda alla crescente importanza di forme ibride di coperazione pubblico-privato. È il tema dei “data collaboratives”: partnership tra piattaforme digitali (in possesso di volumi significativi di dati) e regolatori pubblici interessati all’utilizzo di quei dati per l’esercizio di funzioni di regolazione. La promessa di queste forme di collaborazione è quella di garantire alle piattaforme la continuità delle attività, basate sui dati degli utenti, e contestualmente ai decisori pubblici l’utilizzo di quegli stessi dati a beneficio della collettività, oltre che un controllo più attento sulle modalità di utilizzo. Tanto l’Unione europea quanto il governo statunitense, ad esempio, collaborano oggi con Facebook per monitorare le oscillazioni dell’opinione pubblica su temi di particolare importanza ed evitare derive anti-democratiche.