“Veni, vidi, deplatformi(ng)”: il paradosso della tolleranza

Il diritto di esprimere un’idea, qualsiasi essa sia, coincide o meno col diritto ad avere una piattaforma, un palcoscenico, da cui farlo? Quanto si può essere tolleranti verso posizioni intolleranti? Tra le strette maglie di tali domande, si inserisce il fenomeno del c.d. “deplatforming”, ovvero quell’azione mirata alla limitazione di manifestazioni espressive online considerate pericolose o estreme. Tuttavia, dietro lo scudo della protezione di taluni diritti, dette azioni sono passibili di originare vere e proprie forme di “censura”, con il rischio di una inevitabile compressione della libertà di espressione degli individui.

 

Spiacenti, questo contenuto non è al momento disponibile o è stato rimosso”. Tipica azione sanzionatoria da social media, attraverso il c.d. “deplatforming” si persegue l’obiettivo, chiaro e nitido, di limitare la capacità degli individui e delle comunità di comunicare tra loro e con il pubblico (si veda G. Sgueo, “Lo Stato Digitale sullo schermo: ‘The Social Dilemma’ – Netflix, 2020”); si tratta, in sintesi, di arginare e bloccare quelle attività e pratiche poco gradite al “sentiment” – o del tutto contrarie alla morale – comune come l’utilizzo di linguaggio incitante all’odio, la condivisione di fake news, l’incitazione alla violenza o a comportamenti che mettono a rischio l’ordine pubblico, l’odio razziale, la pubblicazione di contenuti sessualmente espliciti o pedopornografici o anche tentativi di ingerenza nella vita pubblica e politica di paesi terzi (sul tema, E. Schneider “Deepfake & Democracy”).

Non altrettanto chiara, tuttavia, è l’effettiva portata – e la cornice applicativa – dell’azione in questione. Ad esempio, tra gli episodi recenti di deplatforming, è particolarmente singolare il caso “Twitter-India” (si veda K. Lyons, “Twitter censored tweets critical of India’s handling of the pandemic at its government’s request”), in cui il celebre social media – su ordine delle autorità pubbliche – ha censurato diversi tweet contro la gestione della pandemia Covid-19 da parte del governo indiano in quanto, asseritamente, in violazione della normativa locale. Leggi che, in sintesi, impongono limiti alla pubblicazione di materiale che il governo dell’India classifichi (aleatoriamente?) come diffamatorio o che potrebbe incitare alla violenza (nel caso di specie, le accuse mosse alle autorità indiane hanno riguardato, ex aliis, la minimizzazione della gravità della pandemia e la mancata adozione di misure ad hoc).

Ebbene, per meglio perimetrare il fenomeno in esame, è doverosa una brevissima ricostruzione del contesto linguistico di appartenenza e delle principali caratteristiche che lo connotano. Innanzitutto, il deplatforming si innesta in una nuova stagione di attivismo politico, animata da nuove modalità di condivisione e di azione collettiva rese possibili dai social media (si veda anche B.P. Amicarelli, “Negazionismi, censure e social networks”). All’interno di tale cornice, l’aggettivo “woke” (i.e. aggiornato, bene informato, “well-informed”; oggi principalmente inteso come conscio della presenza di discriminazioni e ingiustizie razziali o sociali, frequente in “stay woke”) e la “cancel culture” (letteralmente, “cultura della cancellazione”) costituiscono i concetti fondamentali intorno a cui ruota la fitta rete di neologismi sempre più presenti all’interno dell’agorà culturale e politica degli ultimi anni: trigger warning, deplatforming, entitlement, safe space, destatueing, privilege, denaming, hate speech, callout culture. Termini che, da un lato, spesso si accompagnano a – e connotano – un certo livello di attivismo pluralistico digitale (sia positivo che negativo), dall’altro, contribuiscono, direttamente e indirettamente, alla polarizzazione del dibattitto pubblico online verso una sorta di dittatura della “purezza”.

Ma deplatforming digitale, per usare un’espressione tipica e cara ad Albertone, esattamente “che vor dì”? Il concetto di “deplatform” deriva, per quanto qui di interesse, da un’espressione affine ma utilizzata in diversa circostanza, vale a dire “no platform” (o “no platforming”), adoperata in ambito accademico per indicare quella prassi con cui venivano allontanate dai campus personalità scientifiche le cui idee o posizioni sociali/politiche erano contrarie a quelle dell’istituzione stessa. L’etimologia dell’espressione, dunque, ne indica anche la sua principale caratteristica: un soggetto “depiattaformizzato” è chi non ha – o non ha più per motivi non dipendenti da sé – un palco, una tribuna, un pulpito, a cui viene metaforicamente negato l’accesso. Orbene, da diversa prospettiva (i.e. quella digitale), secondo una sintetica, ma efficace, descrizione, il deplatforming si sostanzierebbe nella cancellazione di contenuti, pagine o profili presenti nelle piattaforme social, effettuata nei confronti di utenti che abbiano violato i termini di servizio delle piattaforme stesse (con particolare riferimento ai discorsi d’odio) nonché nella cancellazione e/o limitazione d’espressione di opinioni a persone – o gruppi – considerati controversi o pericolosi (in tema, F. Grasselli, “Hate speech: le raccomandazioni del Ministero per l’innovazione tecnologica e la digitalizzazione”). Detto fenomeno, in buona sostanza, ha quindi l’aspirazione di affermarsi quale antidoto alla cosiddetta “tossicità delle comunità online”, contro lo sdoganamento e la veicolazione di discorsi estremi su Internet che violino e travalichino i confini delle norme comportamentali proprie della cultura pubblica (sul punto, M. Mazzarella, “Facebook e Twitter contro le fake news”).

Alla luce di quanto sopra, va da sé, dunque, che il file rouge delle varie attività di “depiattaformizzazione” è costituito, de facto, da un pericolo per l’ordine e la sicurezza pubblica – tale da compromettere la comune sensibilità – oltre che da un supremo interesse della collettività da difendere. Da qui, emergono, a tutta evidenza, almeno tre temi di particolare interesse e delicatezza: (i) il rapporto di potere tra “depiattaformizzato” e “depiattaformizzante”; (ii) l’individuazione di ciò che costituisce, in concreto, “pericolo per la sicurezza pubblica”; (iii) l’ampiezza – e i limiti – dell’accertamento delle violazioni potenzialmente idonee a danneggiare la comunità pubblica. Si consideri, poi, che l’efficacia sociale del deplatforming non è, allo stato, misurabile e che tale fenomeno induce, inevitabilmente, alla radicalizzazione delle posizioni: un soggetto “depiattaformizzato” tenderà, naturalmente, alla ricollocazione del proprio “profilo” su altri spazi digitali, radicandosi in ambienti online affini e vanificando l’obiettivo di contrastare le comunità web estremiste o violente (si veda anche M. Mazzarella, “Una prova della personalità per contrastare le false identità digitali”). Del resto, se è vero che l’azione in esame ha un discreto tasso di incidenza, nel breve termine, nell’arginare manifestazioni sociali “indesiderate” o deplorevoli, altrettanto non si può sostenere con riferimento a periodi più lontani nel tempo: il deplatforming, infatti, rischierebbe di tradursi in un pericoloso shock giuridico (la censura e l’affermazione di pregiudizi) o in perturbazioni delegittimanti ex se la libertà di espressione (senza pretese di puntuali analisi costituzionali comparate, si pensi soprattutto ai casi “borderline” come la critica politica – il caso del governo indiano di cui sopra – o di costume).

Pertanto, nella definizione di politiche aventi ad oggetto un simile strumento “depiattafromizzante”, non può prescindersi dall’applicazione di quei concetti minimi di giustizia e legalità – soprattutto con riferimento alla comminazione delle relative sanzioni e alla riabilitazione del soggetto “depiattafromizzato” – oltre all’introduzione di meccanismi di check and balance capaci di evitare che il mero dissuadere «comportamenti controversi in spazi di grande visibilità pubblica si trasformi in un più arbitrario zittire semplici opinioni dissenzienti» (D. McCullagh). Un deplatformig, quindi, disciplinato e normato democraticamente secondo regole trasparenti – non deliberato a porte chiuse da un consiglio di amministrazione o da un ristretto comitato di probiviri social –, idonee a colpire in maniera mirata quei contenuti digitali per cui è provata la relazione tra comunicazione dannosa e comportamento socialmente pericoloso. Del resto, una collettività caratterizzata da tolleranza indiscriminata è inevitabilmente destinata ad essere stravolta e successivamente dominata dalle frange intolleranti presenti al suo interno. È il paradosso della tolleranza di K. Popper: la società tollerante non può tollerare l’intolleranza, se vuole mantenersi tollerante.

 

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale