Gli algoritmi minacciano davvero la democrazia?

Ovunque nel mondo, un numero crescente di persone accede e consuma informazioni prevalentemente o esclusivamente online. Se la funzionalità del servizio reso dai sofisticati algoritmi che governano motori di ricerca e social media (i cd. “intermediari”) è fuori discussione, più controversa è la capacità di questi algoritmi di alimentare un dibattito democratico sano. Secondo alcuni, le funzioni di filtraggio e personalizzazione degli algoritmi negano agli utenti la possibilità di seguire una “dieta” informativa neutrale e bilanciata. Possiamo allora considerare gli algoritmi degli intermediari responsabili di molti degli effetti distorsivi (polarizzazione, camere dell’eco, “filter bubbles”) che affliggono le democrazie contemporanee? Prova a rispondere alla domanda un rapporto della no-profit Algorithm Watch, sfatando alcuni luoghi comuni e provando a indicare soluzioni praticabili al problema.

 

Tra le figure più affascinanti prodotte dall’immaginario collettivo dei primi anni Novanta del Secolo c’è quella del flâneur digitale – o cyberflâneur. Come il suo antenato analogico, che amava trascorrere il tempo vagando per le strade di Parigi, contemplando le persone, preda di una curiosità disinteressata, così il cyberflâneur usava il web per soddisfare il proprio desiderio di conoscenza e approfondimento. Ad alimentarne la curiosità era l’immensa mole di informazioni disponibile in rete e la possibilità di imbattersi, in modo del tutto casuale, in notizie preziose.

L’immagine del cyberflâneur, e con essa l’idea romantica che evocava, ebbero fortuna breve. Fu un celebre editoriale di Eugeny Morozov, pubblicato sul New York Times, a certificare la “morte” del libero arbitrio degli utenti nel consumo di informazioni online; la libertà di scelta, spiegava Morozov, semplicemente non esisteva più (ammesso che fosse mai esistita). Algoritmi sempre più sofisticati potevano tracciare rapidamente l’identikit degli utenti, offrendo contenuti “mirati” rispetto alle preferenze espresse da costoro, più o meno consapevolmente, nel corso di precedenti ricerche online. Poco più tardi, il perfezionamento delle funzioni predittive degli algoritmi che governano i motori di ricerca avrebbe generato un ulteriore paradosso: informazioni offerte agli utenti prima ancora che costoro potessero formulare una preferenza.

Si è molto discusso delle opportunità e dei rischi associati al ruolo che gli “intermediari” (motori di ricerca e social network) svolgono nella distribuzione delle informazioni. Le voci critiche non guardano tanto alla qualità del servizio reso dagli intermediari – è oggettivamente difficile potersi dire insoddisfatti dal risultato offerto da un qualsiasi motore di ricerca, soprattutto nel caso di ricerche semplici. I problemi riguardano le modalità attraverso cui le informazioni vengono raccolte e restituite agli utenti. Dunque, anzitutto, l’opacità delle funzioni di filtering e personalization. Nel primo caso, si discute dell’affidabilità dei criteri che guidano l’algoritmo di ricerca nel selezionare informazioni rilevanti, escludendo quelle giudicate non interessanti. Chi decide questi criteri? Come vengono applicati? E come cambiano? Nel caso della personalization, poi, il problema riguarda la selezione, da parte dell’algoritmo, delle informazioni ritenute ‘interessanti’ per l’utente, sulla base dei dati raccolti dall’algoritmo stesso, che traccia le attività online dei propri utenti. Fino a che punto ciò è lecito? Dove si interrompe l’esigenza di servizio e inizia l’infrazione nella sfera della riservatezza? Si criticano, infine, gli effetti perversi del sorting – ovvero la classificazione delle informazioni selezionate secondo l’importanza loro attribuita. È chiaro che l’utente medio tenderà a trascurare le fonti che appaiono in fondo alla selezione, concentrandosi solamente su quelle più importanti.

Un rapporto curato della no-profit Algorithm Watch prova a fare chiarezza sul tema, concentrandosi su un problema: la funzione che svolgono gli “intermediari” nel raccogliere, organizzare e distribuire informazioni ha un impatto negativo sulle democrazie contemporanee? In altre parole, se accettiamo l’idea secondo cui gli algoritmi che governano i motori di ricerca e i social media privano molti della possibilità di seguire una “dieta” informativa neutrale e bilanciata, possiamo concludere che gli effetti distorsivi (polarizzazione, camere dell’eco, “filter bubbles”) che affliggono le nostre democrazie ne sono conseguenza?

Sul punto, gli autori del rapporto sono espliciti. È vero, essi sostengono, che la logica che guida gli algoritmi degli intermediari è diversa rispetto a quella umana – valorizza, ad esempio, le informazioni in base al potenziale commerciale che esprimono, anziché in ragione della loro oggettività. È vero anche, tuttavia, che l’impatto negativo sui sistemi democratici è spesso sovrastimato. Ne è prova il fatto che dimostrare empiricamente l’impatto delle distorsioni potenzialmente indotte dagli algoritmi rispetto alla libera circolazione delle informazioni è un’operazione complessa, e raramente in grado di fornire prove certe. Ancora oggi ci interroghiamo se i risultati delle ultime elezioni presidenziali americane siano stati realmente influenzati (e in quale misura lo siano stati) dal caso ‘Cambridge Analytica’. Altri problemi, continua il rapporto, sono invece sottostimati, e meriterebbero maggiore attenzione. Tra questi, l’impatto che alcuni fenomeni tipici della rete, come il trolling e l’hate speech, hanno su comunità di professionisti e individui che popolano i social media. I giornalisti, ad esempio, non sono solamente vittime della perdita di credibilità del proprio operato, ma finiscono anche per giocare involontariamente il ruolo di carnefici, contribuendo all’impoverimento della qualità del dibattito online nel momento in cui si sottraggono al confronto in rete, quando questo diviene aggressivo.

Gli autori del rapporto provano a indicare le soluzioni che, a loro giudizio, potrebbero aiutare a porre rimedio alle distorsioni citate. Nessuna di queste è, in realtà, particolarmente originale. Si guarda positivamente, anzitutto, alla moderazione dei contenuti. Quest’ultima, se applicata con metodo, può aiutare a limitare la diffusione di contenuti inappropriati. Sono poi ritenuti utili maggiori sforzi nella ricerca, soprattutto al fine di rendere più chiara la portata e l’impatto della disinformazione. Una regolazione pubblica flessibile, infine, potrebbe aiutare a pensare approcci in grado di recepire i rapidi cambiamenti del mercato e degli operatori da cui è popolato.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.