Algorithms: how can reduce competition and harm consumers: il nuovo programma dell’Autorità britannica della concorrenza e del mercato

In che misura l’uso di algoritmi danneggia i consumatori e la concorrenza? Come si possono dimostrare questi danni? Esistono regole adeguate per contenerli e di quali regole e misure c’è bisogno? Con la pubblicazione di un documento “Algorithms: How they can reduce competition and harm consumers” e il lancio di una “call for information”, la CMA, l’Autorità britannica per la concorrenza e il mercato, intende aggiornare le conoscenze sugli effetti degli algoritmi nei mercati digitali con l’obiettivo di calibrare il ruolo e i poteri delle autorità di regolazione, a cominciare dall’apposita Digital Markets Unit per i mercati digitali (DMU) di recente istituzione.

Gli algoritmi, sempre più sofisticati e complessi, giocano un ruolo determinante nei mercati digitali sia a beneficio dei consumatori che per le imprese e l’innovazione. Tipico è il caso degli algoritmi per la fissazione dei prezzi o di quelli che stabiliscono opzioni di scelta a disposizione dei consumatori consentendo di ottimizzare costi e tempi. Tuttavia, è ormai noto che un uso improprio degli algoritmi, specie da parte delle big tech che hanno un forte potere di mercato, può, invece, produrre effetti avversi per la concorrenza, per l’efficienza dei mercati e per i cittadini. Particolarmente insidiosi sono i casi in cui attraverso algoritmi si riescono a correlare “nudges” di diverso tipo – come la presentazione on line di prodotti iniziando da quelli più costosi ad alcune tipologie di consumatori – che configurano fenomeni difficili da rilevare e che possono, tra l’altro, avere conseguenze discriminatorie su soggetti più vulnerabili ed effetti distributivi ingiusti.

Inoltre, più gli algoritmi evolvono e più aumenta, di norma il grado di opacità del loro funzionamento. Ciò a detrimento della possibilità di capire quando e come causano danni.

A fronte di una grande attenzione al tema e di numerosi studi su alcune questioni (si veda, ad esempio sulla collusione algoritmica qui e qui), ci sono però, ad avviso della Competition and Markets Authority britannica, “relatively little empirical work on some of the specific areas of consumer and competition harms and almost none that we are aware in the UK”.

Sulla base di questo assunto, l’Autorità ha lanciato un nuovo programma di lavoro per aggiornare le conoscenze sui potenziali danni alla concorrenza e ai consumatori dei “sistemi algoritmici”, locuzione con cui si considerano “automated systems, a larger intersection of the algorithm, data, models, processes, objectives, and how people interact and use these systems e per delineare, di conseguenza, in modo efficace il ruolo e i poteri dei regolatori (qui il comunicato stampa e qui la notizia del Programma sul blog della CMA)

La CMA si era occupata dell’uso degli algoritmi per la determinazione dei prezzi e dei loro possibili effetti collusivi, in particolare, nel 2018 nel rapporto Pricing alghorithms. Economic working paper on the use of algorithms to facilitate collusion and personalised pricing. Ma il dinamismo dei mercati digitali, l’uso di algoritmi su larga scala, lo sviluppo della potenza di calcolo, la diffusione dei big data, oltre che il potere di mercato di alcune grandi piattaforme, inducono ora ad ampliare l’ambito di analisi e a discutere di altri possibili effetti dannosi che devono essere dimostrati.

Il programma di lavoro muove da un documento di base, ‘Algorithms: How they can reduce competition and harm consumers e da una call for information rivolta al mondo accademico, alle imprese, alla società civile e alle organizzazioni del terzo settore. Agli stakeholder è chiesto di discutere e arricchire le indicazioni contenute nel paper e di intervenire con commenti, pareri, illustrazione di casi, prove di danni ulteriori nonché con contributi su poteri e strumenti di intervento delle autorità di settore.  L’iniziativa si pone nel solco di quelle che la Gran Bretagna ha di recente impostato per fronteggiare i problemi alla concorrenza nei mercati digitali dovuti alla presenza del forte potere di mercato delle Big Tech di cui si è parlato qui. Anche gli esiti di questo programma sono destinati, infatti, a delineare meglio il ruolo della Unità dei mercati digitali (DMU) di recente istituzione.

Il documento, corredato da numerosi rinvii a casi, studi e rapporti nazionali e internazionali, è diviso in tre sezioni fondamentali: la prima passa in rassegna le principali teorie dei danni per i consumatori e per le imprese, con l’intenzione di focalizzarsi sui soli “danni economici”; la seconda, le tecniche utilizzate per indagare questi danni; la terza, il ruolo dei regolatori e le modalità di intervento. Alla fine del documento viene prospettato il lavoro della CMA sull’Analysing Algorithms Programme.

Molti dei danni discussi nel documento riguardano l’uso di sistemi algoritmici per personalizzare prezzi e interfacce con i clienti, le cosiddette “architetture di scelta”.  Queste ultime, in particolare, possono essere organizzate con tecniche sempre più sofisticate ed opache (dark patterns) tali da sfruttare “le debolezze” e le inerzie dei consumatori per indurli a scelte diverse da quelle che, altrimenti, farebbero (ad esempio attraverso il colore delle interfacce e dei pulsanti di scelta, il collocamento degli stessi, o la esposizione di messaggi che creano un senso di urgenza per il compimento di determinati comportamenti).

Con riferimento più specifico ai danni alla concorrenza, sono esaminate le pratiche di esclusione dei concorrenti e le forme di collusione algoritmica. Tra le altre sono considerate quelle di autopreferenza – noto il caso di Google search (shopping) del 2017 -, di manipolazione degli algoritmi di ranking, del Predatory pricing. Sulla collusione degli algoritmi di prezzo sono menzionate la collusione esplicita, l’hub and spoke e l’autonomous tacit collusion. In quest’ultima, in particolare, algoritmi utilizzano tecniche come il deep reinforcement learning che, per via di veloci e continui adattamenti alle condotte dei concorrenti, colludono senza alcuna comunicazione esplicita tra le imprese. In sostanza le decisioni sono prese dalle macchine in modo autonomo rispetto alle stesse istruzioni di programmazione. Con una serie di problemi in ordine alla configurazione della collusione, all’imputabilità della condotta e all’applicazione delle sanzioni.

Sono, poi, illustrate le attuali tecniche elaborate per provare a scoprire i danni, tecniche che si basano  sull’accesso o meno ai dati e ai codici degli algoritmi (come lo scraping audit o un API –Application programming interface).

Il documento si conclude con una parte importante sul ruolo e sugli strumenti di intervento dei regolatori. Il tema si intreccia con quello sui limiti e sulle prospettive della normativa antitrust che sta emergendo in numerosi contesti con sempre maggiore rilievo (come anche indicato nel  fascicolo monografico “Intelligenza artificiale e diritto” recensito nel post di Nicola Posteraro).  Basti solo pensare alle proposte formulate dalla Sottocommissione Antitrust del Congresso USA (sulle quali si rinvia ai post di Bruno Carotti e di Benedetta Barmann quiqui e qui), al Digital Services Act package della Commissione europea e  alle specifiche iniziative della stessa Gran Bretagna a cui si è accennato sopra.

Vengono prospettati sia “pro-competitive interventions” ossia misure preventive ex ante, quali Linee guida e standard di comportamento, secondo la logica recentemente proposta dalla CMA e rilanciata anche a livello europeo; sia misure che puntano sulla trasparenza dei sistemi algoritmici – da calibrare attentamente perché troppa trasparenza potrebbe a sua volta favorire collusioni; sia misure di auditing, di monitoraggio e sanzioni. Un ruolo importante è assegnato alla DMU a cui si auspica vengano assegnati incisivi poteri di indagine e strong remedial powers specie nei confronti delle piattaforme che impediscono la conoscenza dei problemi con algoritmi troppo opachi.

Tutto questo anche con l’intento di rafforzare la responsabilità delle imprese. Precisa, infatti, la CMA, andando anche oltre al mandato di limitarsi ai soli “danni economici”, “companies should be ready to be held responsible for the outcomes of their algorithms especially if they result in anti-competitive (or otherwise illegal or unethical) outcomes”.

Per la natura poliedrica dei danni e la dimensione globale dei mercati digitali, la CMA sottolinea l’importanza di agire in collaborazione non solo con altre autorità nazionali, quali l’Office of Communications (OFCOM), l’Information Commissioner’s Office (ICO), ma anche con le Autorità antitrust di altri Stati su cui, nonostante Brexit, la Gran Bretagna punta molto. Attendiamo ora gli esiti della consultazione e la definizione dei prossimi obiettivi.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale