Il ruolo dei Deepfake news sui sistemi democratici, in particolare sulle elezioni politiche

Durante le elezioni presidenziali americane del 2016, le fake news sono state un grave problema ma, oggi, in vista delle elezioni in corso per l’elezione del 46° presidente degli Stati Uniti, il rischio ancor maggior si chiama deepfake video: quanti voti risulteranno attraverso l’influenza manipolativa dell’intelligenza artificiale?

 

 

La minaccia emergente di deepfake potrebbe avere un impatto senza precedenti su questo ciclo elettorale, sollevando seri interrogativi sull’integrità delle elezioni democratiche, sul processo decisionale e sulla società in generale.

Il termine “deepfake” (parola coniata nel 2017) definisce una tecnica, diffusa in rete, per la sintesi dell’immagine umana, che sfrutta l’intelligenza artificiale (“IA”) di alcuni software per combinare e sovrapporre immagini e video veri e falsi, grazie alla quale è possibile realizzare video talmente realistici da essere spesso difficilmente individuabili come falsi, dove i soggetti, mai ripresi in realtà, pronunciano qualsiasi cosa si indichi al computer di riprodurre.

Attraverso la sovrapposizione facciale, la tecnologia deepfake può essere usata per creare falsi video che mostrano politici dire cose che non hanno mai detto, o fare cose che non hanno mai fatto (tale tecnologia ha trovato la sua popolarità per la prima volta negli Usa, nell’aprile del 2018, quando un comico, Jordan Peele, ha creato un video con un finto Obama che insultava Trump in un discorso).

Il deepfake diventa un genere specifico di disinformazione, una terribile evoluzione delle “semplici” fake news, in grado di minacciare seriamente il sistema democratico (non solo dei singoli Stati, ma dell’intero scenario mondiale), così come per la privacy individuale.

L’ambito di applicazione più rischioso di questa tecnologia rimane quello politico, ma anche quello economico (si pensi all’effetto che può creare tra gli investitori la distorsione e la diffusione di un video contenente una dichiarazione mendace e alterata di un politico) e/o della libertà di informazione nei (nuovi) media / social network.

Cosa comporta questo per la tenuta di un sistema democratico?

Polarizzazione del dibattito pubblico, frammentazione della pubblica opinione e omissione informativa che caratterizza processi comunicativi contemporanei. Così, il fenomeno del deepfake è idoneo a minare i pilastri dell’arena pubblica e del marketplace of ideas: la distorsione delle dichiarazioni politiche, la creazione di fake talmente credibili da non essere individuati come falsi neanche dai giornalisti se non mediante complesse procedure di ricostruzione delle fonti.

Purtroppo, le politiche di controllo su questi video, ovvero il cosiddetto fact-checking (ad esempio, Facebook ha aperto una collaborazione con l’Agenzia Reuters, il più grande fornitore di notizie multimediali, per aiutare le redazioni di tutto il mondo a identificare i deepfake e i media manipolati attraverso un corso di formazione online gratuito; l’azienda Microsoft di Redmond si è dotata di un nuovo strumento chiamato Video Authenticator, che analizza i filmati per scovare quelli manipolati), sono ancora rare e, comunque, inefficienti, a causa della difficoltà di riconoscere l’artificialità di questi contenuti.

Per contenere il problema dell’avanzamento tecnologico e dell’impiego distorto dell’intelligenza artificiale è necessario un nuovo programma etico per l’IA nella pubblicità politica e nei contenuti sulle piattaforme online. Data la natura transfrontaliera del problema, l’agenda deve essere sostenuta dal consenso e dall’azione globali, degli Stati, delle istituzioni e, soprattutto, dei grandi colossi deell’hi-tech.

A chi compete, quindi, intervenire?

Questa è questione dibattuta e involve una serie di problemi ordinamentali che riguardano la forma e la dimensione delle nostre democrazie. Anzitutto, le comunità e gli individui possono anche agire direttamente stabilendo standard più elevati su come creare e interagire con contenuti politici online.

Negli Stati Uniti, in Europa e, infine, anche in Italia, gli Stati pensano ad un intervento normativo finalizzato ad obbligare chi diffonde in rete i deepfake a specificare che si tratti di video non autentici e a richiamare le company proprietarie dei social network affinché agiscano per proteggere la libertà di parola e non per limitarla, monitorando i contenuti che ledono i diritti, la democrazia o mettono a rischio l’incolumità dei cittadini.

Ma a quale idea di Stato e di società risponde la pretesa dei pubblici poteri di qualificare il falso informativo?

A tal proposito la Commissione europea ha evidenziato che l’obbligo primario degli attori statali in fatto di libertà di espressione e dei mezzi di comunicazione è di astenersi da qualsiasi tipo di interferenza e di censura e di garantire un contesto favorevole per un dibattito pubblico pluralistico e inclusivo. I contenuti legali, anche quelli presunti dannosi, sono generalmente tutelati dalla libertà di espressione e devono essere gestiti in maniera diversa rispetto ai contenuti illegali, per i quali la rimozione del contenuto stesso può essere giustificata.

Come ha sottolineato la Corte europea dei diritti dell’uomo, ciò è particolarmente importante quando si parla di elezioni.

In ottica di piena cooperazione, anche i rappresentanti delle piattaforme online, i principali social network, gli inserzionisti e l’industria pubblicitaria hanno concordato un codice di condotta di autoregolamentazione (firmato dalle piattaforme online dei grandi colossi Facebook, Google, Twitter e Mozilla, nonché dagli inserzionisti e dall’industria pubblicitaria nell’ottobre 2018 e i firmatari hanno presentato le loro tabelle di marcia per implementare il codice; Microsoft si è unita a maggio 2019, mentre TikTok ha firmato il codice a giugno 2020) per affrontare la diffusione della disinformazione online e delle notizie false.

Contromisure legislative da parte delle istituzioni e cooperazione possono arginare il fenomeno su scala globale specialmente per ciò che riguarda le possibili ingerenze di fake news e deepfake su elezioni politiche e decisioni di rilevanza pubblica, ma sono necessari anche investimenti paralleli sul fronte dell’informazione e della formazione: da più fronti si suggerisce, ad esempio, di lavorare sull’alfabetizzazione digitale, sulla scelta, sulla comparazione e sull’autorevolezza delle fonti, a tal fine, rafforzando il ruolo dei professionisti dell’informazione, riscoprendo il valore della funzione di “mediazione culturale” propria, ad esempio, dei giornalisti.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.