Recensione di A. Longo – G. Scorza – “Intelligenza artificiale. L’impatto sulle nostre vite, diritti e libertà” – Mondadori, 2020

L’Intelligenza artificiale (IA) pone tutti noi davanti ad un bivio tra semplificazione della vita e maggiore privacy? “Sono disponibile a fare a meno che Alexa mi ricordi di prendere l’ombrello quando sente che sto uscendo di casa e sa che sta per piovere o che Google Home mi prenoti un taxi in tempo utile per arrivare alla cena che ho segnato in agenda?” Comodità tecnologica o rispetto del privato? Ma soprattutto siamo sicuri che l’utente rivolgendosi ad una soluzione di IA non ne ignori o ne sottovaluti gli effetti collaterali? Da questo punto di vista l’obiettivo del volume è aiutare a comprendere (o quantomeno capire meglio) gli scenari aperti dall’epoca del digitale.

Come distinguere i sistemi di intelligenza artificiale da altri sistemi e soluzioni tecnologiche egualmente evolute ma non artificialmente intelligenti? E, poi, qual è il ruolo del diritto? Offrire un regime di tutela, proprietà e titolarità delle soluzioni tecnologiche? Perimetrare l’utilizzabilità del machine learning per assumere decisioni in ambito commerciale o pubblico? Squarciare il velo al fine di assicurare la trasparenza degli algoritmi? Provando a rispondere a domande di questo tipo, il volume di Alessandro Longo e Guido Scorza indaga la rivoluzione tecnologica. Con un taglio divulgativo e l’abbondante uso di esempi gli autori tentano di spiegare i progressi dell’IA.

Dopo aver ricostruito le basi storiche e tecnologiche dell’IA, gli autori provano ad indagare il rapporto tra diritto ed etica rispetto alle manifestazioni tecnologiche e a sondarne le ricadute socio-economiche. Il testo è articolato in sette capitoli. Nei capitoli centrali sono approfonditi i vantaggi e i rischi dell’IA rispetto al tema del lavoro, della sanità, e delle applicazioni nella vita quotidiana (come le macchine a guida autonoma o l’internet of things). Il punto centrale, come noto, non è quello dei rischi di un’umanità soggiogata dalla macchine (almeno per ora), quanto piuttosto quello di capire se le società saranno capaci di servirsi delle innovazioni per il bene comune oppure unicamente a vantaggio di pochi e a svantaggio di molti.

Gli algoritmi sono macchine imperfette. I bias (cioè i pregiudizi discriminatori) incidono sul processo di raccolta dei dati, con cui la tecnologia è alimentata, addestrando la macchina in modo sbagliato. Eppure l’andamento è ormai avanzato. L’IA comprende, perché riconosce testi, immagini, video, voci, suoni da cui estrapola informazioni. L’IA ragiona, perché collega i dati raccolti tramite processi logici. L’IA apprende, perché comprendendo e ragionando ottiene ulteriore conoscenza. L’IA interagisce con gli esseri umani, mediante le tecnologie di processing del linguaggio naturale. Però bisogna sempre tener conto della differenza semantica che c’è tra pericolo e rischio. Il burrone è un pericolo, dato che vi è la certezza di poter ricevere o causare danni. Alcuni sport, invece, possono essere un rischio, giacché il danno è una possibilità che varia di soggetto in soggetto. Se ciò è vero, vale la pena ricordare che l’IA rappresenta pur sempre un rischio e non un pericolo, dal momento che la regolazione può vantare enormi potenzialità per governare l’interazione tra società e macchine.