Negazionismi, censure e social networks

La scelta di Facebook di iniziare a censurare i post che negano l’Olocausto, mutando radicalmente la policy dell’azienda in materia, trasmette un messaggio positivo ma comporta conseguenze potenzialmente pericolose. L’arbitrio sotteso a questa decisione, infatti, lascia trasparire la possibilità per i social di gestire liberamente i contenuti anche in materie in cui la falsificazione non si mostri così palese e lesiva, indirizzando le opinioni collettive nella sostanziale assenza di una regolazione pubblica efficace.

 

 

Facebook ha recentemente deciso di mutare la sua policy in merito ai post degli utenti che potrebbero ricondurre a teorie negazioniste sull’Olocausto, disponendone la rimozione. Questa forma di censura, infatti, era stata espressamente esclusa dall’azienda nel 2018, suscitando varie critiche. Tuttavia, il cambiamento non rileva unicamente ai fini del contrasto all’antisemitismo, perché appartiene ad un quadro più ampio di misure adottate da vari social network, che di recente si stanno orientando verso una progressiva soppressione anche dei post legati a teorie antiscientifiche (come l’antivaccinismo), ovvero a teorie complottistiche come la c.d. teoria Qanon.

L’intento, almeno ad un primo sguardo, sembra positivo. L’intervento delle società private per rimuovere contenuti radicalmente falsi e, pertanto, potenzialmente dannosi, infatti, dovrebbe impedire o limitare la circolazione degli stessi. Ciò diviene certamente più evidente laddove si rischi di diffondere posizioni inequivocabilmente esecrabili, come quelle volte a negare tragedie storicamente riconosciute (tra cui la Shoah) e dalla influenza ideologica potenzialmente molto pericolosa, visto anche il rischio di recrudescenze molto concreto. Tuttavia, il rischio più evidente che ne consegue è la potenziale lesione delle libertà di pensiero e di espressione. Questo rischio deriva dall’allontanamento da un modello di gestione neutrale dei social network, soprattutto laddove sussista un certo margine di incertezza in merito alla veridicità di quanto riportato. Al di là di evidenti falsificazioni come quelle sulla Shoah, affidare a soggetti privati il compito di tutelare queste libertà, ovvero di comprimerle per tutelare altri interessi pubblici, costituisce una scelta foriera di molte perplessità. Lo stesso Mark Zuckerberg, pur avendo affermato nel 2016 che «sotto molti punti di vista Facebook è più simile ad un governo che ad un’azienda», nel suo discorso a Georgetown del 2019 ha preferito dichiarare «francamente, non penso nemmeno che dovremmo prendere così tante decisioni importanti sulla libertà di parola da soli».

D’altro canto, alcuni governi si sono affidati ai social per ridurre la circolazione di contenuti che, benché non espressamente in contrasto con delle norme, risultavano sgraditi. Un’unità della London’s Metropolitan Police, ad esempio, si occupa di controllare le piattaforme digitali per scovare eventuali contenuti potenzialmente legati a reti terroristiche e richiedere ai gestori di rimuoverle, anche qualora il materiale pubblicato non violi, di per sé, alcuna legge. Il regolamento interno di Twitter prevede espressamente il ban del materiale che possa interferire con una non meglio specificata «civic integrity» degli Stati.

Questi ed altri esempi pongono il problema di una regolazione del fenomeno che, allo stato attuale, sembra ancora troppo embrionale. L’arbitrio sotteso alla scelta di Facebook, completamente autonoma, di iniziare a censurare posts in materie precedentemente non sottoposte a controllo come l’antisemitismo, infatti, pare molto ampio. In questo senso, gli stessi social networks hanno tentato una sorta di auto-regolazione. Anzitutto, si è sviluppata la distinzione fra freedom of speech e freedom of reach. Alla censura dei contenuti si preferisce tendenzialmente il limitarne la diffusione, come nel caso di YouTube che lo scorso anno ha modificato il suo algoritmo in modo tale da garantire che i video potenzialmente suscettibili di rimozione risultino meno raccomandati dalla piattaforma. Un’altra linea evolutiva del fenomeno consiste nell’aumentare la trasparenza dei processi decisionali interni dei social. La stessa Facebook, ad esempio, ha compiuto un deciso passo avanti in questo senso il 22 ottobre, lanciando un Oversight Board, una sorta di collegio di probiviri formalmente indipendente rispetto alla società, che avrà il compito di riesaminare le decisioni dei moderatori relative alla rimozione di contenuti tramite decisioni vincolanti. Tuttavia, i poteri di questo collegio sono piuttosto ridotti, perché consistono nel mero rivalutare censure precedentemente disposte. Non sono previsti poteri di rule-making, necessari per riformare l’approccio dell’azienda alla gestione dei contenuti, e i poteri di riesame non riguardano le decisioni che limitano la circolazione dei post (anche perché spesso adottate in automatico dall’algoritmo) ma solo le decisioni di rimozione.

Il punto dirimente, quindi, diviene la regolazione pubblica. Tuttavia, le politiche dei singoli Stati, USA in primis, mostrano una certa inefficacia. Ciò è testimoniato dalla recente inchiesta parlamentare statunitense sulla gestione dei contenuti sui social, promossa in ragione della potenziale influenza sulle elezioni presidenziali, in cui il senatore repubblicano Roger Wicker ha affermato «la mia preoccupazione è che queste piattaforme sono diventate potenti arbitri della verità e dei contenuti cui possono accedere gli utenti». D’altro canto, la sezione 230 del Communications Decency Act attualmente garantisce l’immunità nelle cause legate ai contenuti pubblicati da terzi, limitando fortemente la possibilità di introdurre una sufficiente regolamentazione del settore. Tuttavia alcune interpretazioni restrittive della norma, volte ad evitare potenziali lesioni del diritto penale, hanno indotto social come Tumblr e Craigslist ad interrompere la pubblicazione di materiale per adulti. In Germania, invece, il c.d. NetzDG del 2017, comunemente noto come Facebook Act, ha introdotto una serie di sanzioni molto dure per i social che non rimuovano eventuali contenuti illegali entro 24 ore.

Tuttavia, queste ed altre soluzioni appaiono limitanti, in quanto volte a provocare la rimozione di contenuti potenzialmente dannosi ma non sufficienti per garantire che il processo decisionale sulla gestione dei contenuti stessi sia effettivamente volto a rispettare degli interessi pubblici preminenti. L’approccio regolatorio sembra ancora eccessivamente legato ad una concezione individualista, rischiando di non cogliere gli effetti sistemici della gestione ed eventuale rimozione di materiale dai social network, con la conseguenza di lasciare all’arbitrio delle aziende un’attività le cui conseguenze sulla società non possono che essere molto incisive.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.