Gli aspetti etici dell’Intelligenza Artificiale applicata alla medicina; il CNB e il CNBBSV esprimono il parere richiesto dal Presidente del Consiglio dei Ministri

Nel settembre 2019, il Presidente del Consiglio ha avanzato una specifica richiesta di un pronunciamento del Comitato Nazionale per la Bioetica sull’utilizzo dell’IA nel campo della salute. Al fine di elaborare una risposta al quesito, il CNB ha costituito un gruppo misto con il Comitato Nazionale per la Biosicurezza, le Biotecnologie e le Scienze della Vita (CNBBBSV). Nel maggio 2020 è stato così elaborato un documento, che, a partire da una definizione di IA, ne analizza origine e sviluppi più recenti. Più nel dettaglio, il parere sottolinea le opportunità, i rischi e le principali applicazioni dell’IA in medicina, dedicando particolare attenzione agli aspetti etici.

 

Il 26 settembre 2019, il Presidente del Consiglio ha avanzato una specifica richiesta di un pronunciamento del Comitato Nazionale per la Bioetica sull’utilizzo dell’IA nel campo della salute.

 

Al fine di elaborare una risposta al quesito, il CNB ha costituito un gruppo misto con il Comitato Nazionale per la Biosicurezza, le Biotecnologie e le Scienze della Vita (CNBBBSV).

È stato così elaborato un documento, curato dalla Prof.ssa L. Palazzani (datato 29 maggio 2020), che, a partire da una definizione di IA, ne analizza origine e sviluppi più recenti. Più nel dettaglio, il parere sottolinea le opportunità, i rischi e le principali applicazioni dell’IA in medicina, dedicando particolare attenzione agli aspetti etici.

 

Pur apprezzando i progressi e le opportunità dischiuse dalla IA (al punto da ritenere che debba essere promossa la ricerca su IA sia in ambito privato, sia -soprattutto- in ambito pubblico), il Comitato, senza esaltare od ostacolare lo sviluppo della tecnologia, intende dichiaratamente “identificare le condizioni etiche per uno sviluppo della IA che non rinuncia ad alcuni aspetti della nostra umanità”.

 

Il Comitato parte da un presupposto fondamentale: l’IA è uno strumento potente, ma accessorio alla decisione umana. Il problema oggi, quindi, non è tanto quello della “autonomia” della IA, (per quanto teoricamente possibile, si legge nel parere, siamo ancora lontani da questo scenario); ma, semmai, il fatto che un sistema esperto, che diventa ottimale nel suggerire “decisioni” all’uomo, rischia, tra le altre cose, di ridurre le abilità umane. In quest’ottica, diventa importante una riflessione sulla sinergia tra l’uomo e la macchina, la quale deve per forza di cose restare assoggettata a un “controllo umano significativo” in termini di supervisione e attenzione.

La riflessione sembra essere di portata generale e non si attaglia solo all’ambito medico: in questo senso, si è espressa anche la più recente giurisprudenza amministrativa, la quale, come rilevato in un altro post, con specifico riferimento al procedimento amministrativo, ha riconosciuto quanto sia importante che il contributo umano in ogni caso controlli, validi, ovvero smentisca la decisione automatica.

 

Nella medicina esistono già oggi molte applicazioni dell’IA finalizzate a migliorare (e a rivoluzionare) la pratica sanitaria. A titolo esemplificativo, si consideri lo studio, frutto di una collaborazione tra stati Uniti e Cina, pubblicato su Nature Medicine, che illustra come un sistema di IA possa diagnosticare malattie pediatriche con percentuali assai elevate di successo.

 

Anche l’Italia, nonostante la crescita digitale del nostro Paese sia al di sotto degli standard statistici predisposti sul punteggio complessivo dell’Unione Europea, inizia a fare uso di questi sistemi.

In costanza della eemergenza COVID-19, ad esempio, la IA è stata utilizzata per la lotta contro il virus Sars-Co V-2 (es. per il controllo e la tracciabilità dei comportamenti della popolazione), ovvero per assicurare, nel post pandemia, adeguati standard di assistenza sanitaria favorevole all’utenza.

In generale, il Comitato ritiene che un corretto uso della IA potrebbe migliorare e rendere più efficienti e scorrevoli i flussi all’interno delle strutture sanitarie: l’IA può senz’altro ridurre i tempi impiegati dai professionisti nelle attività burocratiche, di mera routine, e consentire al sanitario di ricavare più tempo per la relazione di cura (e di fiducia: cfr. l. 219/2917) con il paziente; tuttavia, poiché ogni soggetto è malato “a suo modo”, il contatto personale costituisce l’elemento essenziale di ogni diagnosi e di ogni terapia. In questo senso, la macchina non potrà sostituire l’umano in una relazione medico-paziente che si costruisce sull’incontro di ambiti complementari di autonomia, competenza e responsabilità. L’IA va considerata esclusivamente come un aiuto nelle decisioni del medico, che rimangono controllate e supervisionate dall’uomo. Resta compito del sanitario, in ogni caso, prendere la decisione finale, in quanto la macchina fornisce solo ed esclusivamente un supporto di raccolta e analisi dei dati, di natura consultiva.

Con la tecnologia, si deve quindi auspicare una medicina “con” le macchine, non una medicina “delle” macchine.

 

Il documento sottolinea inoltre l’importanza di introdurre strumenti che garantiscano l’affidabilità della IA; occorre ridurre, nei limiti del possibile, le opacità, gli errori e le possibili discriminazioni dovute a cause tecnologiche e/o umane.

È noto, ad esempio, il caso rilevato dallo studio accademico statunitense (confluito nel documento “AI Now 2017 Report”) di afroamericani con anemia falciforme, che erano stati sottoposti a diagnosi e trattati inutilmente per il diabete, in virtù di dati utilizzati per i sistemi intelligenti provenienti da studi che li avevano esclusi, in quanto incentrati su uomini bianchi.

Occorre evitare quindi che le iniquità, già esistenti nell’ambito della salute, vengano accentuate e peggiorate dall’IA.

 

Dato l’enorme uso di dati, è inoltre indispensabile, si legge, una adeguata tutela della privacy (che tende a “evaporare”, posto che a tecnologie opache corrispondono utenti sempre più trasparenti); e ciò, considerando la possibilità della condivisione dei dati come bene sociale per l’avanzamento delle conoscenze scientifiche.

Si tratta di una questione che, come sottolineato anche in altri post di questo Osservatorio, interessa tutti i settori in cui si faccia uso di strumenti tecnologicamente avanzati e che, in costanza della pandemia COVID-19, ha riguardato, in particolare, le applicazioni di tracciamento.

 

Nella parte finale del documento, il Comitato si concentra, poi, sul tema del consenso.

È principio consolidato nel nostro ordinamento quello secondo il quale il consenso (informato) è un elemento essenziale della relazione paziente-medico: esso, garantendo l’autonomia del paziente, tutela il suo diritto alla vita, la sua salute, la sua dignità, la sua autodeterminazione.

Il parere afferma che esso deve essere centrale anche nel caso in cui il medico si avvalga nel trattamento di cura di dati ricavati dall’IA e dello sviluppo della robotica. Al medico spetta in particolare il compito di mediare la comunicazione col paziente, resa difficile dall’utilizzo di terminologie complesse e dalla opacità degli algoritmi.

Il sanitario è dunque obbligato, eticamente e giuridicamente, a informare il paziente con delle modalità consone e comprensibili.

Dopotutto, come più volte precisato dalla giurisprudenza nazionale, il consenso informato, non essendo atto meramente burocratico, per potere essere effettivamente valido deve essere stato rilasciato da un paziente che abbia davvero compreso e valutato i rischi e i benefici derivanti dal trattamento da assentire (nel fornire l’informazione, il medico deve dunque tener debitamente conto del tipo di interlocutore con cui si trovi a dovere dialogare).

 

In conclusione, il Comitato affronta poi il tema della responsabilità: l’automazione in medicina non è priva di rischi e la questione della responsabilità è uno dei problemi più delicati e complessi che sorgono con l’utilizzo e lo sviluppo di nuovi sistemi di IA.

Si tratta di un tema che riveste una importanza centrale anche a livello europeo ed è stato pure oggetto della riflessione dottrinale interna.

Secondo il Comitato, occorre chiarire se la responsabilità per alcune decisioni prese attraverso un sistema intelligente debbano essere attribuite al progettista, al venditore del software, al proprietario, all’utilizzatore (il medico) o a terze parti. In particolare, esso ritiene correttamente che l’analisi delle nuove responsabilità e le ipotesi di nuove norme, oltre che le nuove interpretazioni evolutive di quelle esistenti, richiedano una riflessione continua interdisciplinare fra le scienze giuridiche e le scienze mediche.

 

Ancora, il parere dedica una certa attenzione al tema della formazione dei medici e degli operatori sanitari, ritenendo in particolare che questi debbano essere necessariamente istruiti ad utilizzare in modo responsabile i risultati della ricerca di IA.

In quest’ottica, il Comitato afferma che occorre ripensare la formazione dei professionisti della salute e che debbano essere revisionati i programmi di studio da parte di commissioni interdisciplinari.

Sul punto, si ricorda che il report dell’Osservatorio Innovazione Digitale in Sanità della School of Management del Politecnico di Milano, su direttori di aziende sanitarie e medici, ha rilevato la scarsa conoscenza delle potenzialità del digitale e la mancanza di competenze nel settore.

 

A questo proposito, di particolare rilevanza appare l’iniziativa di Humanitas University e del Politecnico di Milano: essi hanno dato vita a un nuovo corso di Laurea, il MEDTEC School, che formerà una innovativa figura professionale (un medico-chirurgo) che sarà in grado di comprendere e applicare le nuove tecnologie (e che conseguirà pertanto, altresì, la laurea triennale in Ingegneria Biomedica).

 

Il parere precisa opportunamente che la formazione dovrà essere rinnovata anche nell’ambito della tecnologia: dovranno in particolare essere introdotti corsi di formazione all’etica e alla bioetica per gli ingegneri, informatici, computer scientist, con particolare riferimento all’etica nel disegno delle tecnologie (ethics by design/in design/for designers) e nella progettazione, metodologia e applicazione delle tecnologie; solo così, infatti, si riuscirà a garantire una consapevolezza etica di coloro i quali costruiranno le tecnologie.

 

Secondo il Comitato, si deve infine promuovere una coscienza pubblica della società su opportunità e rischi delle nuove tecnologie: è importante, infatti, che i cittadini partecipino in modo critico al dibattito sull’IA con consapevolezza.

La questione è particolarmente importante, se si considera che, come rilevato in un’altra ricerca dall’Osservatorio Innovazione Digitale in Sanità della School of Management del Politecnico di Milano, 8 cittadini su 10 non usano, allo stato, i servizi sanitari via web (l’86% dei pazienti preferisce il consulto medico di persona, l’83% si reca agli sportelli per il pagamento delle prestazioni e nel 80% dei casi ritirare a mano i referti). È chiaro che la reticenza dei singoli ad approcciarsi alla sanità digitale deriva, tra le altre cose, proprio dalle scarse competenze digitali: è la mancanza di queste che li spinge a guardare con sospetto all’innovazione.

Eppure, il Consiglio dell’Unione Europea, nel maggio 2018, in costanza della pubblicazione delle nuove competenze chiave per l’apprendimento permanente, aveva già qualificato il digitale come “competenza di base”, accanto al leggere e allo scrivere.

 

Si dovrà dunque fornire, prima ancora, un’educazione di base ai cittadini privi di competenze digitali (cd. alfabetizzazione digitale), sulla falsa riga di quanto sperimentato dal Regno Unito, che ha realizzato il programma “Widening Digital Partecipation” (2013-2016), col quale ha insegnato alle persone come utilizzare le risorse online, contattare il proprio medico online, gestire le condizioni mediche e fare scelte più adeguate al proprio stato di salute.

Ciò anche al fine di assicurare un potenziale risparmio di spesa del SSN.

 

Non resta che verificare quanto e in che termini terrà conto del parere in commento il legislatore interno che interverrà per disciplinare (e sciogliere i nodi del)la materia: anzitutto ad esso spetta infatti il compito di rispondere adeguatamente alle corrette sollecitazioni dei Comitati.

 

Sul tema, si segnala un interessante articolo pubblicato da un gruppo di scienziati sul New England Journal of Medicine, dal titolo “Transforming Global Health with AI”.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.