La trasformazione provocata dall’Intelligenza Artificiale richiede la sua accettazione da parte dei curanti e di tutti gli operatori, per gli inevitabili cambiamenti di ruolo professionale, di relazione con il paziente, e di necessità formative, indispensabili per integrare le tecnologie digitali nella pratica clinica.
In particolare, sarà profondamente alterata la relazione medico-paziente, con il rischio di un possibile rimpallo di responsabilità.
La attribuzione delle scelte decisionali dovrebbe rimanere prerogativa del medico, pur condivise a priori con il paziente, sia nel caso che il professionista decida di avvalersi dei sistemi di IA, sia che decida di non avvalersene. In generale esiste la possibilità che si sviluppi un meccanismo psicologico di de-responsabilizzazione e di delega dell’intelligenza umana a quella artificiale: “non sono io che ho sbagliato”, con relative conseguenze medico-legali tutte da considerare in un ambito ancora sostanzialmente sconosciuto.
Sicuramente non tutto ciò che le tecnologie rendono possibile è anche eticamente lecito. Non tutto quanto proviene dal progresso tecnologico è intrinsecamente buono. Come afferma Antonio Fabris, docente di Filosofia morale ed Etica della comunicazione all’Università di Pisa, gli scenari degli utilizzi futuri di determinati apparati vanno, nei limiti del possibile, anticipati e le possibili conseguenze e responsabilità chiarite. Ad esempio, in caso di diagnosi errata, la responsabilità sarà del medico che ha accettato o comunque avvallato l’errore, ma dovrebbero essere coinvolti i vari componenti della filiera, compresi i fornitori dei dati per il sistema algoritmico, i programmatori e i venditori del software, tutti peraltro sottoposti ai codici etici delle loro categorie professionali1. Certamente non si può fare causa al computer!
L’elemento “black box-scatola nera” è un ulteriore fattore di complicazione perché non consente al medico di conoscere i passaggi che hanno condotto la macchina alla decisione e questo determina difficoltà nella condivisione del trattamento con il paziente: “non so bene perché ma il computer dice che devi operarti”.
Oppure, se un’IA stabilisce che un paziente ha un’alta probabilità di diventare alcolista nel giro di qualche anno e che quindi non è indicato sottoporlo ad un trapianto di fegato… sarebbe una decisione giustificata?
Gli intrecci tra problematiche etiche e attribuzione di responsabilità e in ultima analisi di possibile colpa, possono influenzare alcune fondamentali componenti del rapporto di fiducia reciproca tra medico e paziente.
La competenza del medico può essere, ad esempio, aumentata dall’utilizzo di tecnologie digitali, così come l’empowerment del paziente, e questo può migliorare il rapporto di fiducia. D’altro canto, tecnologie inadeguate possono ottenere l’effetto contrario.
L’IA può essere utile per rendere fruibile l’enorme quantità dei dati di letteratura medica. Ogni anno vengono infatti pubblicati oltre 2 milioni di articoli scientifici (uno ogni 30 secondi!).
L’IA, liberando i professionisti dalle pastoie burocratiche, può aumentare la sensazione del paziente che il curante stia effettivamente agendo nel suo esclusivo interesse.
Infine, la percezione dei pazienti che le decisioni cliniche sono basate su solidi dati scientifici può aumentare il loro livello di fiducia verso l’operato del medico. Ovviamente sapere invece che i propri dati vengono condivisi con entità terze, renderebbe le persone meno propense a condividere le informazioni sul proprio stato di salute2.
La Commissione Europea ha pubblicato recentemente un documento che esamina le implicazioni legali dell’IA ad ampio raggio, in sanità e anche nella guida autonoma di autoveicoli. Il documento esamina tra l’altro il tema della responsabilità per gli eventuali danni causati dai sistemi di IA3.
La conclusione, in estrema sintesi, è che restano molte lacune che richiedono correzioni delle norme attualmente in uso.
Sicuramente è necessario un approfondimento culturale generale di queste tematiche per iniziare un percorso di confronto interdisciplinare, allo scopo di stabilire le strategie e le politiche rispetto ad una tecnologia che è attualmente impiegata limitatamente rispetto alle sue potenzialità, ma in un futuro non lontano è destinata a cambiare l’essenza della medicina.
1 Fabris A. Etica per le tecnologie dell’informazione e della comunicazione. Carocci Editore, Roma, 2018.
2 Nundy S et al. Promoting trust between patients and physicians in the era of artificial intelligence. JAMA. 2019;322(6):497-498. doi:10.1001/jama.2018.20563.
3 Holder C et al. Legal and regulatory implications of Artificial Intelligence. The case of autonomous vehicles, m-health and data mining. Luxembourg: Publications Office of the European Union, 2019.