Recensione a A. Davola, Algoritmi decisionali e trasparenza bancaria

Il FINTECH pone questioni nuove e complesse derivanti dall’impiego di sistemi decisionali automatizzati nel mercato bancario e finanziario. Per valorizzare le potenzialità che si presentano (miglioramento delle performance dei mercati, promozione di obiettivi connessi allo sviluppo della finanza sostenibile, tutela del consumatore e maggiori opportunità di accesso a prodotti e servizi), ci si propone di individuare gli aspetti critici e i rischi che derivano da un uso distorto degli algoritmi decisionali in un mercato finanziario che si presenta in continua evoluzione.

  1. Fintech e uso degli algoritmi

Si è svolto lo scorso 29 giugno 2021 presso il Centro Interdipartimentale di ricerca in “Diritto e tecnologie di frontiera” – DETECT dell’Università di Pisa, un seminario sul tema “Fintech e uso degli algoritmi” in occasione del quale si è discusso del volume di A. Davola, Algoritmi decisionali e trasparenza bancaria, Utet, Torino, 2020 (https://shop.wki.it/libri/algoritmi-decisionali-e-trasparenza-bancaria-s732620/#pdp-description).

Lo studio presentato si sofferma sulle principali opportunità che il Fintech offre al mercato, nonché sui problemi che emergono dal punto di vista della tutela del consumatore di servizi finanziari.

  1. I vantaggi

Considerando, in primis, i fattori di opportunità che hanno favorito l’adozione degli algoritmi nell’ambito dell’attività degli operatori bancari e finanziari, l’aspetto principale è certamente quello di promuovere il miglioramento delle prestazioni del sistema finanziario nel suo complesso, attraverso l’introduzione di metodologie di analisi propedeutiche e funzionali a una efficace gestione del rischio. L’utilizzo di software di elaborazione automatizzata è idoneo, infatti, a fornire risorse utili alla gestione (sia preventiva sia reattiva) delle fluttuazioni di mercato, nonché ad una migliore valutazione della stabilità e delle prospettive di solvibilità degli investitori.

Non sorprende che la disponibilità di ampi bacini di dati (o meglio big data) consenta di rendere più efficaci le attività tradizionalmente connesse alla gestione del rischio: identificazione, mitigazione, controllo e monitoraggio.

Si agevola così l’attività bancaria nel suo complesso, sia corporate sia retail, tanto sotto il profilo delle linee strategiche di finanza, quanto delle tecniche di gestione patrimoniale della clientela.

Il ricorso a forme di elaborazione automatizzata implica una importante riduzione dei costi transattivi per l’esecuzione delle operazioni di creazione e distribuzione di prodotti e servizi finanziari.

Peraltro, lo ricorda l’autore, questi vantaggi derivano anche dalla c.d. “neutralità” di questi software di elaborazione dati.

È infatti chiaro come l’utilizzo, ad esempio, di applicativi consulenziali digitali possa contribuire a ridurre comportamenti “opportunistici” da parte degli stessi istituti oltre che dei consulenti tradizionalmente intesi.

Questo, in un ambito nel quale si manifestano difficoltà nel ricondurre la condotta dei consulenti entro parametri di valutazione realmente oggettivi.

  1. Profilazione del cliente e allocazione delle risorse

Demandare le fasi di profilazione del cliente, di definizione dell’allocazione delle relative risorse e di selezione delle asset di investimento, nonché di monitoraggio periodico del portafoglio di investimento e del suo bilanciamento, ad un sistema basato sull’analisi dei dati, in effetti, dovrebbe consentire di prevenire anche il verificarsi di condizioni di conflitto di interesse e di ridurre i rischi derivanti dalla necessaria relazione fiduciaria tra intermediario e cliente, nell’ambito di un servizio di consulenza quanto mai personalizzato (tailorizzato: su misura del cliente).

Ciò similmente a quanto sarebbe richiesto normalmente, secondo la regolamentazione primaria e secondaria vigente in materia, al consulente-operatore “umano”, ma con il vantaggio di operare su masse di dati – e di inferenze – di gran lunga più consistenti, secondo un postulato di adeguatezza, almeno in astratto, cucito su misura del destinatario, capace persino di affinarsi con la durata del rapporto, e cioè con la crescita dei dati a disposizione dell’algoritmo.

L’autore, a tal riguardo, correttamente, differenzia i c.d. algoritmi per la profilazione degli utenti da quelli meramente predittivi che, giovandosi dei primi, mirano a massimizzare l’efficienza della valutazione del rischio.

  1. I nuovi rischi: gli effetti distorsivi dell’uso di algoritmi

È nondimeno necessario tenere in considerazione come il ricorso a tali tecnologie (specialmente in un quadro normativo lacunoso) possa comportare l’insorgere di nuovi rischi, con conseguenti ripercussioni a carico del sistema finanziario e dei consumatori.

In questo senso rileva la questione, mai sopita, della qualità dei dati utilizzati dai software, potenzialmente forieri di esternalità negative.

Numerose sono state, come è noto, le riflessioni condotte in merito a possibili effetti distorsivi nelle attività finanziarie, derivanti dall’utilizzo di dati a basso livello di affidabilità, dovuti alla sopravvenienza anche di errori in fase di training o supervisione degli algoritmi di analisi.

Il delicato tema delle variabili impiegate nel condurre la valutazione del rischio e l’attività di profilazione, con conseguente valorizzazione dell’esigenza di evitare possibili utilizzi dei big data in chiave discriminatoria nei processi di decisione automatizzata, rappresenta una questione con la quale è necessario confrontarsi.

Emerge, più in generale, il rischio che l’algoritmo operi le proprie elaborazioni sulla base di bias o tenendo in considerazione fattori latu sensu sensibili.

  1. L’omologazione dell’offerta

La presenza di software algoritmici basati su modelli di pianificazione bancaria diretti a garantire il conseguimento di determinati obiettivi di investimento attraverso l’allocazione dei fondi del cliente può determinare un (paradossale) effetto di omologazione dell’offerta con il rischio che il soggetto intenzionato ad investire si trovi, all’esito dell’elaborazione da parte del software, di fronte ad un’offerta di prodotti o servizi (magari estremamente personalizzata ed adeguata alle sue esigenze, ma) fortemente limitata, con l’evidente possibilità di vedere minato il principio di autonomia privata, preposto a tutelare e valorizzare la libertà di scelta del consumatore di prodotti finanziari e che, al contrario, risulta mortificato, giacché determina una seria compressione della capacità effettiva di scelta, giungendo ad un sostanziale “appiattimento” dell’offerta.

  1. L’opacità degli algoritmi

L’utilizzo di tecniche automatiche nell’elaborazione dei big dataset (a) rende complesso comprendere quali siano stati i criteri seguiti e i meccanismi alla base della scelta dei prodotti proposti (questione, questa, da porre in relazione con il già menzionato rischio di presenza di bias nell’attività di elaborazione della tecnologia); (b) il tasso elevato di complessità dell’elaborazione condotta.

Il tema, semplificando, è quello della c.d. “opacità” degli algoritmi e della loro qualificazione in termini di black box – secondo la nota nozione delineata dalla dottrina nordamericana – nel senso di impermeabilità e impenetrabilità delle valutazioni condotte dall’algoritmo.

Emerge la necessità, come sottolineato da Davola, di una normativa di settore che sia in grado di porre delle regole idonee a garantire un’immediata tutela a favore degli investitori potenzialmente pregiudicati, individuando in particolare il soggetto al quale imporre, anche attraverso sistemi di regresso, l’onere risarcitorio, al fine di responsabilizzarne la condotta.

  1. L’esigenza di valutare l’impatto tecnologico in sede regolatoria

Diversi ed eterogenei sono, dunque, gli aspetti da tenere presenti nell’affrontare il tema dell’utilizzo di sistemi algoritmici all’interno dell’attività finanziaria, specialmente laddove si voglia valutare l’impatto tecnologico quanto meno in sede regolatoria.

Rimane sullo sfondo l’ineludibile necessità di supervisionare il funzionamento dei meccanismi algoritmici, al fine di garantire un elevato livello di tutela degli investitori attraverso lo sviluppo di una regolamentazione (effettiva ed) efficace.

La questione è quella dell’assenza di regole, da un lato, e delle esigenze di protezione dall’altra, alla ricerca (come evidenzia Davola) di un difficile governo della complessità tecnologica nei mercati finanziari.

Lo sforzo deve essere quello di ricercare una contestualizzazione sistemica, al fine di delineare la ridefinizione dei doveri dei vari soggetti coinvolti.

  1. Tra istanze di tutela del cliente e regolazione del mercato

L’analisi delle applicazioni concrete dell’uso degli algoritmi decisionali in settori particolarmente sensibili alle istanze di tutela del cliente (la valutazione del merito creditizio), o funzionali alle esigenze di garantire l’efficiente performance delle banche e – indirettamente – del sistema finanziario (si pensi alla valutazione delle esposizioni debitorie ad alto rischio NPL), evidenzia come il quadro normativo esistente non permetta, ad oggi, di pervenire ad un efficace bilanciamento tra utilizzo delle tecnologie emergenti e protezione di coloro che a vario titolo potrebbero risultare da queste condizionati.

La trasparenza bancaria e l’eterogeneo complesso di regole che a questo fanno riferimento (obblighi di disclosure, poteri inibitori e sanzionatori delle autorità di vigilanza), nella regolamentazione dei sistemi di elaborazione automatizzata (e più in generale nel FINTECH), devono essere (ri-)adeguate nel senso di andare oltre la “tradizionale” compensazione dell’asimmetria informativa tra istituto e cliente. Una conclusione cui giunge l’Autore, sulla quale non si può che convenire.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale