Recensione a K. Crawford, “Né intelligente né artificiale. Il lato oscuro dell’IA”

Come viene costruita l’intelligenza artificiale? Di che cosa di compone e come si sviluppa? Quali trasformazioni produce sull’ambiente, nel mondo del lavoro, sulla società e a quali costi? Quali interessi serve? Che cosa conosciamo di questo “lato oscuro” dell’AI? Questi alcuni dei molti interrogativi su cui il libro si sofferma. L’autrice osserva l’intelligenza artificiale in una prospettiva ampia tenendo conto del suo intero ciclo di vita e delle “dinamiche di potere che la guidano”. L’intelligenza artificiale non ha nulla a che vedere con l’intelligenza umana né con ciò che è artificiale. Piuttosto – osserva la Crowford – l’”AI è sia incarnata che materiale composta da risorse naturali combustibili, lavoro umano, infrastrutture, logistica, storie e classificazioni”. E, per il capitale necessario per costruirli su larga scala e per ottimizzarli, i sistemi di intelligenza artificiale sono definiti e progettati per servire i poteri dominanti.

Kate Crowford, studiosa dell’impatto sociale dell’intelligenza artificiale (AI) e cofondatrice dell’AI Now Institute nella New York University, conduce il lettore in un interessante e, per certi aspetti, preoccupante viaggio all’interno dei sistemi di produzione e funzionamento dell’intelligenza artificiale, con l’obiettivo di mettere in luce le implicazioni e le conseguenze che essi hanno sull’ambiente, sul mondo del lavoro, sulla cultura, sulla società. Mutuando un concetto sviluppato dallo storico e filosofo della tecnologia Lewis Murford, l’intelligenza artificiale è vista come una “megamacchina” in cui approcci “tecnologici dipendono da infrastrutture industriali, catene di approvvigionamento e lavoro umano diffuse in tutto il mondo”. Gran parte di questo complessivo sistema è opaco se non del tutto oscuro ai più. Lungi dall’essere un “dominio puramente tecnico”, l’intelligenza artificiale dipende “da un insieme molto ampio di strutture politiche e sociali che riflettono un modo di comprendere il mondo e le relazioni sociali” di chi la modella effettivamente. Un “registro del potere” per il massimo profitto di pochi. E come tale, l’AI va intesa, conosciuta, interpretata e valutata anche al fine di individuare, se possibile, strumenti in grado di regolarne l’utilizzo in una auspicabile prospettiva che la riconduca ad una visione del mondo più giusta e sostenibile.

Per far comprendere il suo ragionamento, l’autrice paragona l’intelligenza artificiale ad un atlante (il titolo in inglese è Atlas of AI): così come gli atlanti offrono una particolare visione del mondo e sono allo stesso tempo “un atto di creatività” e “una raccolta scientifica”, il “campo dell’AI è il tentativo esplicito di catturare il pianeta in forma leggibile da un punto di vista computazionaleche, però, al momento offre la visione del mondo dei poteri dominanti.  Il “lato oscuro” dell’AI è attraversato anche con viaggi che l’Autrice fa nei luoghi, come ad esempio, il deserto del Nevada, fonte di minerali ed elementi sempre più rari necessari all’industria del settore, ovvero in cui emergono condizioni di lavoro simili alle fabbriche tayloriste del passato, come nei magazzini Amazon. Le riflessioni sono svolte con un continuo riferimento a progetti e sperimentazioni e articolate con un frequente rinvio a tesi e prospettive storiche, filosofiche e giuridiche.

Il volume è suddiviso in sei capitoli che si susseguono secondo una progressione ben studiata per offrire un quadro complessivo, in una prospettiva “grandagolare e multiscalare”, di ciò che per l’autrice è necessario considerare per comprendere appieno il suo punto di vista. Considerazioni finali sono svolte in un “Epilogo”, sul potere e in una “Coda.Spazio”.

Il primo capitolo è dedicato all’impatto dei sistemi di produzione dell’intelligenza artificiale sull’ambiente. Una descrizione di come l’industria estrattiva e l’uso di risorse naturali, alcune in esaurimento, stiano  compromettendo in modo irreparabile alcuni parti del pianeta e generando conflitti.

Nel secondo capitolo l’indagine e gli interrogativi riguardano il mondo del lavoro. Il focus è centrato su chi lavora in ambiti poco visibili della produzione, dai minatori ai crowdworkers, e su chi presta la propria opera nelle grandi industrie dei social. Lavoratori per lo più sottopagati, trattati quasi come robot, controllati da sistemi di computo del tempo anch’esso “creato” come Google True Time. E come un serpente che si morde la coda, i sistemi di AI per cui lavorano sono anche quelli che governano la sorveglianza dei dipendenti, captando e riutilizzando informazioni sempre più di dettaglio sulle prestazioni per la massima efficienza della produzione.

Nei capitoli centrali, terzo, quarto e quinto, l’autrice si sofferma sul sistema di estrazione dei dati, sui loro processi di trattamento e classificazione e sulle conseguenze che ne derivano nell’utilizzazione pratica dell’AI. Per i sistemi di apprendimento automatico i dati sono fondamenta delle capacità e funzionalità predittive, il loro orizzonte cognitivo. Per questo l’accumulazione dei dati, di qualunque genere e sempre più biometrici, è uno dei problemi su cui si concentra l’industria del settore. La disponibilità massiva di internet e l’inserimento, per lo più inconsapevole, di dati privati da parte degli utenti sulle piattaforme social sta diventando una delle miniere più preziose.

Decontestualizzati, considerati come “infrastruttura”, i dati così collezionati sono però astratti e privati del significato primigenio e classificati secondo criteri, per lo più opachi, eccessivamente semplificati rispetto alla complessità dell’uomo e della realtà nonché condizionati dal contesto socio politico in cui vengono elaborati. Costruiti in tal modo i cd. set di dati di training – con cui si addestrano le macchine ad apprendere – tendono a rafforzare, nei processi decisionali in cui l’AI è utilizzata, ingiustizie e discriminazioni.

Le riflessioni sono poi indirizzate a rilevare come il forte impulso dato allo sviluppo della tecnologia dal settore militare si rifletta sul modo in cui il potere statale usa l’AI in ambiti extra militari, dal settore commerciale, all’istruzione, alle ricerche di polizia nei luoghi di lavoro o negli uffici di collocamento. Se a questo si unisce la logica del capitale, peraltro nelle mani di poche grandi imprese, e l’ibridazione di finalità pubbliche con quelle private e viceversa nella misura in cui il settore pubblico si avvale delle potenzialità tecniche superiori delle poche grandi imprese private e queste ultime dei dati pubblici e dei finanziamenti pubblici, la conclusione è che l’AI “acuisce asimmetrie di potere esistenti” e è al servizio delle strutture di potere. E che affrontare i problemi dell’intelligenza artificiale richiede “un forte collegamento con questioni di potere e giustizia: dall’epistemologia, ai diritti dei lavoratori, dallo sfruttamento delle fonti alla protezione dei dati”.  Non è sufficiente per la Crowford affrontare il problema solo da un punto di vista etico, anche per la debolezza dell’enforcement, ma occorre mettersi nella prospettiva del potere.  Provando a ribaltare le logiche attuali e mettendo in prima piano la salvaguardia dei beni comuni e gli interessi dei molti che, privi di potere, non sono messi in grado di far rispettare i propri diritti.

E’ un libro che si legge con interesse. Condivisibili o meno le conclusioni cui giunge l’autrice, sicuramente offre un documentato spaccato sull’altra faccia dell’AI, quella meno immediatamente visibile, che invoglia ad approfondire, a saperne di più.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale