Covid-19 ed elezioni USA: la reazione delle piattaforme alla disinformazione

EU Disinfo Lab ha censito, nell’anno appena trascorso, il comportamento delle maggiori piattaforme web (Facebook, Google, TikTok e Twitter) con riguardo alla presenza di informazioni inesatte relative al Covid-19 e alle elezioni presidenziali statunitensi. Il ruolo di questi soggetti è stato di fondamentale importanza rispetto alla diffusione di notizie corrette con riguardo ai due più importanti eventi che hanno avuto luogo negli Stati Uniti nel 2020. È stata così messa in evidenza la sempre più impellente necessità di implementazione di regole trasparenti con riguardo alla diffusione di contenuti sulle piattaforme online.

L’organizzazione no profit EU Disinfo Lab ha ricostruito, su un’ideale linea temporale, le contromisure prese da alcune delle più grandi piattaforme (Facebook, Google, TikTok e Twitter) in relazione alla disinformazione circolante su di esse a seguito dell’esplodere della pandemia da Covid-19 (di cui si è parlato nell’Osservatorio qui). Le azioni intraprese sono state catalogate su base mensile per tutti i diversi soggetti, le contromisure sono state catalogate in quattro diversi tipi di moderazione dei contenuti: segnalazioni, rimozioni, limitazioni e cd. “indicizzazione prioritaria”.

In particolare viene sottolineato come, con l’esplodere della pandemia, le piattaforme abbiano enfatizzato i contenuti delle Autorità sanitarie attraverso diversi strumenti: le notifiche in-app, hashtag dedicati e attraverso l’indicizzazione prioritaria delle indicazioni degli organismi competenti con riguardo alle ricerche circa il Covid-19. Un’azione simile è stata intrapresa in relazione alla campagna elettorale statunitense (presidenziali 2020). Inoltre le piattaforme hanno aggiornato le policies relative ai contenuti considerati fuorvianti e dannosi. In particolare, è possibile evidenziare come Facebook abbia proceduto ad incrementare la propria policy di contrasto agli individui e le organizzazioni pericolose (si pensi alle azioni intraprese contro Qanon). Anche Twitter, nel gennaio del 2021 ha aggiornato la propria policy con riguardo ai contenuti considerati dannosi. È evidente come l’incitamento all’odio online possa riflettersi anche nel mondo reale (“offline” per così dire): i fatti di Capitol Hill rappresentano un esempio emblematico (su questo rinvio al mio contributo su questo Osservatorio, qui). Al fine di fornire un’informazione consapevole, nel 2020 le piattaforme hanno iniziato a segnalare i contenuti potenzialmente fuorvianti, gli account controllati dallo Stato e quelli che invece fanno capo a candidati e/o esponenti politici (sul tema si veda il Report della Commissione europea: “Tackling COVID-19 disinformation – Getting the facts right”).

Il report fornisce poi l’indicazione circa gli specifici strumenti utilizzati dalle diverse piattaforme per contrastare la disinformazione presente sui propri feeds. Facebook (in relazione anche a tutte le altre applicazioni controllate quali Messenger, Instagram e Whatsapp) ha svolto un’intensa attività in relazione all’esplosione della pandemia, alle elezioni presidenziali e alla campagna vaccinale. Sono stati enfatizzati i contenuti provenienti dalle Autorità sanitarie e sono state rimosse le informazioni inesatte riguardanti il Covid-19. Per le elezioni presidenziali si è posta maggiore attenzione sui contenuti in grado, direttamente o indirettamente, di interferire sul voto. Google ha indicizzato in via prioritaria i contenuti accurati e verificati relativi alla pandemia e ha persino concesso crediti pubblicitari alle autorità sanitarie pubbliche. Per le elezioni presidenziali si è invece registrata, da parte del suddetto motore di ricerca, una particolare attenzione nella diffusione di contenuti ritenuti affidabili. Twitter, nel corso del 2020, ha – da parte sua – rinnovato fortemente la propria linea editoriale: è stato implementato l’uso di etichette, avvisi, riduzione di visibilità di contenuti ritenuti dannosi e aumento di visibilità di contenuti autorevoli. Ciò si è reso evidente con la pandemia e con le elezioni presidenziali arrivando, per prima tra le varie piattaforme, a sospendere l’account dell’ex Presidente Trump. Infine, per quanto concerne TikTok, occorre necessariamente sottolineare l’assenza su questa piattaforma di pubblicità di tipo politico, ancorché essa si sia mossa in modo pressoché simile alle altre piattaforme per quanto concerne la pandemia e i feeds ad essa collegati.

Il report sottolinea, nelle proprie conclusioni, come si sia registrato, complessivamente, un ingente sforzo di miglioramento dei contenuti postati da parte delle piattaforme; anzi può ragionevolmente affermarsi che siano state prese delle misure senza precedenti per limitare i danni. Viene enfatizzato nello studio in commento come questa capacità di reagire così rapidamente sia allo stesso tempo incoraggiante e preoccupante. Infatti, se da un lato le piattaforme si sono comportante coerentemente in relazione all’interesse pubblico, dall’altra parte resta la preoccupazione circa le cause della diffusione di notizie fuorvianti, in parte negletta ed “elusa” dai gestori delle piattaforme. L’EU DisinfoLab propone dunque una maggiore trasparenza sui processi di indicizzazione prioritaria o retrocessione dei contenuti; una maggiore responsabilizzazione della società civile; la sanzione degli operatori che si comportino in mala fede per sfuggire ai processi di trasparenza e di responsabilizzazione.

Il comportamento delle piattaforme web si presenta, nei casi in esame, certamente lodevole: la limitazione di contenuti fuorvianti o che incitano all’odio non può che essere condivisa. Questi soggetti hanno assunto un peso sempre maggiore nel dibattito pubblico e, tramite la gestione dei loro servizi, possono concretamente scegliere a quali contenuti dare maggiore rilevanza e quali invece, di fatto, oscurare. Un controllo sui contenuti appare non solo opportuno, ma doveroso. Vi è sicuramente concordia nell’evitare la diffusione di fake news, ma fino a che punto ci si può spingere senza ledere diritti costituzionalmente tutelati, come la libertà di espressione? Da ultimo: le piattaforme sono gestite da privati che possono decidere cosa corrisponde alle linee guida e cosa no. Quis custodiet ipsos custodes? Sembrerebbe opportuno, in tale ottica, un intervento legislativo per garantire il corretto bilanciamento dei diversi interessi.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale