L’aeronautica militare USA “a caccia” di fake news

La società californiana Primer ha annunciato di avere stipulato un contratto con la U.S. Air Force (USAF) e la U.S. Special Operations Command (SOCOM) per lo sviluppo di un software per la ricerca delle fake news diffuse in rete. La piattaforma automatizzerà il lavoro di analisi dei dati attualmente svolto da decine di analisti, consentendo di verificare l’attendibilità delle notizie in tempo reale. Il progetto, per come presentato dal soggetto sviluppatore, solleva però molteplici dubbi quanto alla sua effettiva legittimità.

                                                                                                                                                                                                                                                              In un recente comunicato stampa la società californiana Primer – specializzata nello sviluppo di dispositivi di intelligenza artificiale – ha annunciato di avere stipulato un contratto con la U.S. Air Force (USAF) e la U.S. Special Operations Command (SOCOM) per implementare una piattaforma capace di verificare l’attendibilità delle notizie diffuse sul web.

Nonostante il tema della cybersicurezza stia imponendosi nelle agende di soggetti pubblici e privati, come dimostra il rapido moltiplicarsi delle misure adottate a questo scopo (v. ad esempio per l’Italia A. Renzi, Il rafforzamento della difesa cibernetica passa per la sicurezza nazionale: il Computer security incident response team (Csirt) italiano), l’iniziativa dei due organi militari statunitensi di dotarsi di un software per la ricerca delle fake news è probabilmente senza precedenti.

La piattaforma, si legge nel comunicato di Primer, automatizzerà il lavoro di verifica dei dati attualmente svolto da decine di analisti umani, consentendo di analizzare le notizie in tempo reale, verificare la relativa attendibilità e fornire pattern previsionali per il futuro.

La dichiarazione di intenti di Primer è molto chiara: «The massive volume of information available, coupled with exponential growth in disinformation, underscores the fact that to fight disinformation the U.S. will need to illuminate the truth».

Per riuscire a conseguire tale ambizioso scopo (i.e., quello di «illuminare la verità»), secondo quanto dichiarato dal direttore scientifico di Primer John Bohannon, almeno in una prima fase, sarà essenziale il contributo di coloro che interagiscono con i siti web di SOCOM e dell’Aeronautica miliare. Proprio a questi ultimi sarà infatti affidato il compito di contribuire ad addestrare il software, fornendo una propria valutazione sul grado di attendibilità delle notizie sottoposte alla propria attenzione.

Tali contributi dovrebbero fornire alla piattaforma l’inziale base conoscitiva per permettere alle reti neurali del software di sviluppare successivamente un’autonoma capacità di analisi delle notizie.

Sebbene non si sappia molto altro su come il software concretamente funzionerà – tutte le informazioni fino ad ora disponibili provengono da soggetti interni alla stessa Primer – né sul relativo contesto di utilizzo da parte dell’Aeronautica militare USA e la SOCOM, l’iniziativa, per come presentata dal soggetto sviluppatore, solleva diversi dubbi.

Sul versante tecnico, non è affatto detto che un software di questo genere sia effettivamente capace di raggiungere lo scopo prefigurato dal suo sviluppatore, ossia «illuminare la verità». Come emerso da tempo nel dibattito scientifico, i modelli basati sulle correlazioni tra i dati non sono capaci di produrre moduli cognitivi certi, ma soltanto – in misura dipendente dalla quantità e della qualità dei dati – probabili. La diffusione di una certa notizia in rete – indipendentemente dal numero e dall’autorevolezza delle fonti che l’abbiano condivisa – non ne garantisce necessariamente la sua attendibilità, come molti episodi della storia recente hanno contribuito a dimostrare.

In secondo luogo, occorre considerare che gli algoritmi non sono mai strumenti veramente neutri, bensì non possono andare disgiunti dalle condizioni in cui essi sono sviluppati e utilizzati (sul dibattito inerente alla neutralità delle tecnologie, v. G. Sgueo, Si può regolare l’innovazione tecnologica determinista e non-neutrale?).

Lasciare decidere all’IA quali notizie siano degne di essere definite tali può essere rischioso poiché, nonostante l’aura di granitica oggettività di cui godono, c’è sempre un fantasma umano che si agita dentro ogni algoritmo. Nel caso del software di Primer, il “fantasma umano” racchiuso nel software è eminentemente rappresentato da uno specifico segmento di utenti, ossia quelli che – secondo le dichiarazioni rese da John Bohannon – interagiranno con le piattaforme web di SOCOM e dell’Air Force per addestrare il programma.

Di conseguenza, anche le classificazioni operate dalla piattaforma non potranno che essere influenzate – in quale misura dipenderà dalle caratteristiche specifiche del programma – dal quadro valoriale di un preciso segmento di utenti. Uno piccolo spicchio che, con ogni probabilità, non sarà in grado di assicurare quel requisito di diversità dei dati che è essenziale ai fini della attendibilità delle correlazioni del programma.

Naturalmente, la rilevanza di tali profili di criticità dipenderà anche dal relativo contesto di utilizzo. È chiaro infatti che se l’utilizzo sarà limitato all’attività di supporto delle indagini, allora la capacità del software di “sfrondare” le fonti inattendibili potrà rivelarsi preziosa.

Ma se gli scopi saranno davvero in qualche modo legati, come si legge nel comunicato di Primer, ad impedire agli avversari di «plasmare le percezioni della realtà», allora un dispositivo di questo genere rischia di tradursi, a propria volta, in uno strumento per veicolare una precisa narrazione della realtà, ossia quella condivisa dalle due forze militari che gestiscono il software.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.