L’Europa si interroga: quali responsabilità per quali piattaforme digitali?

La responsabilità delle piattaforme digitali è uno dei temi più delicati nel rapporto tra nuove tecnologie, Stato, principi democratici, regole di convivenza civile, diritti fondamentali della persona. La Commissione Europea, a dicembre 2020, ha formulato una proposta di regolamento: nell’ambito della discussione attorno a questo progetto, il Panel for the Future of Science and Technology del Parlamento Europeo ha incaricato un gruppo di ricercatori di redigere uno studio sulle forme di responsabilità delle piattaforme digitali, pubblicato lo scorso febbraio.

 

 

Un social network è passibile di una qualche responsabilità se i suoi utenti pubblicano fake news o contenuti inappropriati? Una app di delivery è tenuta a risarcire chi ha subito un incidente causato da uno dei suoi rider? Una piattaforma di e-commerce è responsabile se uno dei suoi utenti vende dei prodotti contraffatti? Una app di messaggistica istantanea è responsabile se viene utilizzata per scambiare foto e video illeciti?

A queste domande ha provato a rispondere il report “Liability of onfline platforms”, redatto da un gruppo di ricerca della Scuola Superiore Sant’Anna su incarico del Panel for the Future of Science and Technology (STOA) del Parlamento Europeo, che si inserisce nel contesto dell’ampio dibattito sviluppatosi attorno alla proposta di Regolamento relativo a un mercato unico dei servizi digitali, formulata dalla Commissione Europea lo scorso 15 dicembre 2020, nel quale il sistema di responsabilità delle piattaforme digitali è fondato su obblighi puntuali, anziché su un obbligo generale di supervisione dei contenuti pubblicati.

Il rapporto parte da una premessa banale, quanto vera: l’attuale disciplina europea della responsabilità stenta ad adattarsi alle specificità delle piattaforme digitali; l’utilizzo sempre più frequente delle piattaforme digitali nella vita di tutti i giorni rende la questione del regime di responsabilità loro applicabile improcrastinabile; il sistema di auto-regolazione tendenzialmente non è stato efficace.

Il gruppo di ricerca ha messo in evidenza tre aspetti: primo, ogni piattaforma digitale funziona diversamente, sicché è necessario adottare un approccio settoriale, tipologia per tipologia, per poter adattare i principi generali in materia di responsabilità alle specificità di ciascuna tecnologia; secondo, se la disciplina della responsabilità va calibrata sulla tecnologia in uso, essa sarà destinata a trasformarsi continuamente, contestualmente all’evoluzione tecnologica (technologically-specific regulation); terzo, i principi di responsabilità non rappresentano sempre l’unica soluzione possibile, né la soluzione migliore, ma vanno alternati ad altre misure, non solo giuridiche.

Per questa ragione, il report può essere idealmente diviso in tre parti: a una breve introduzione, di carattere introduttivo e teorico-metodologico (che corrisponde ai paragrafi 1-4), segue una parte centrale – la più corposa – in cui si compie una mappatura delle diverse forme di responsabilità configurabili per ciascuna tipologia di piattaforma digitale (i paragrafi 5-7) e un’ultima parte in cui vengono esaminate le alternative regolatorie e proposte delle osservazioni conclusive (paragrafi 8-9).

Il rapporto approda a tre risultati.

Primo, chiarisce, dal punto di vista teorico, i profili della responsabilità delle piattaforme digitali, dal punto di vista giuridico, distinguendo tra i concetti di responsabilità legale (liability) e responsabilità etico-morale (responsibility), tra le forme di responsabilità (amministrativa, civile e penale), tra responsabilità diretta o indiretta, tra contenuti dannosi e illeciti.

Secondo, fotografa l’estrema frammentazione dell’attuale quadro giuridico europeo, sia dal punto di vista delle fonti (sia hard che soft regulation, sia nazionali che unionali) che dei criteri sulla base dei quali sono plasmate le discipline in vigore (alcune sono settoriali, come l’e-commerce e i servizi audiovisivi; altre sono funzionali, come le disposizioni a tutela del diritto di proprietà intellettuale e dei minori; altre ancora reprimono specifiche condotte, come l’hate speech, la disinformazione e la manipolazione elettorale, il terrorismo; altre ancora riguardano profili specifici di responsabilità, come il trattamento dei dati e l’adempimento dei contratti). L’elevata frammentazione del sistema rende meno chiaro – per le piattaforme digitali – individuare le condotte per cui sono effettivamente responsabili, determinando due conseguenze opposte, ma egualmente disfunzionali: alcune rinunciano a contrastare le condotte illecite dei loro utenti, altre le reprimono in maniera addirittura eccessiva, finendo per limitare alcuni diritti della persona (ad esempio, di manifestazione del pensiero e di iniziativa economica).

Terzo, individua le diverse opzioni regolatorie, esprimendosi chiaramente in favore di forme di co-regolazione e di etero-regolazione (alcuni profili critici della auto-regolazione e della etero-regolazione sono già stati discussi in questo Osservatorio – qui, qui, qui e qui – soprattutto in relazione alla compressione dei diritti fondamentali della persona), e propone di integrare forme settoriali di responsabilità diretta e indiretta, principi generali di responsabilità indiretta e altre forme – giuridiche e non – di accountability e di sensibilizzazione dell’opinione pubblica e delle piattaforma digitali sul controllo della qualità dei contenuti pubblicati dai loro utenti.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale