Benzinger, L., Ursin, F., Balke, WT. et al. Should Artificial Intelligence be used to support clinical ethical decision-making? A systematic review of reasons. BMC Med Ethics 24, 48 (2023). https://doi.org/10.1186/s12910-023-00929-6
Questo lavoro esplora la questione dell’uso dell’Intelligenza Artificiale (IA) nelle decisioni etiche in ambito clinico. Gli operatori sanitari, sia medici che infermieri, si trovano spesso di fronte a sfide etiche che possono derivare dalla mancanza di capacità decisionali del paziente, da disaccordi con i familiari del paziente o dalla necessità di prendere decisioni cruciali alla fine della vita.
La tensione etica percepita da parte degli operatori sanitari può portare al burnout e, in casi estremi, all’abbandono della professione. Per affrontare queste sfide etiche, esistono i servizi di supporto etico clinico (CESS). Questi servizi sono stati riconosciuti per il loro valore nel tempo, ma la loro copertura e la
loro qualità possono variare notevolmente.
Questi sono i tre possibili scenari delle decisioni di etica clinica:
- Supporto Etico Clinico (CESS): si riferisce alle strutture e ai servizi che offrono supporto e consulenza per affrontare questioni etiche in ambito clinico. Questi servizi coinvolgono esperti di etica clinica che aiutano i medici, i pazienti e altri operatori sanitari a prendere decisioni etiche complesse in situazioni mediche. È un tipo di supporto etico tradizionale che coinvolge esseri umani, come consulenti etici e comitati etici.
- Clinical Decision Support Systems (CDSS): si riferisce a sistemi basati su computer o software che forniscono supporto decisionale clinico. Questi sistemi sono progettati per aiutare i medici a prendere decisioni mediche migliori fornendo informazioni e suggerimenti basati su dati medici e protocolli clinici. Ad esempio, possono aiutare i medici a formulare diagnosi più accurate o a scegliere i trattamenti più appropriati.
- Agenti Morali Artificiali: Questo si riferisce all’idea di creare sistemi o algoritmi informatici che sono in grado di prendere decisioni etiche in modo simile a come lo farebbe un essere umano. Gli “agenti morali artificiali” sono sistemi che sono stati progettati per operare in conformità con un quadro etico che è stato “insegnato” loro e che valutano tutte le loro decisioni in base a questo quadro etico prima di eseguirle.
Attualmente si stanno sviluppando sistemi basati su sofisticate tecniche di data science per assistere nelle decisioni etiche in ambito clinico, ma questo solleva interrogativi e inquietudini riguardo alle implicazioni etiche.
Gli autori di questo articolo hanno presentato una rassegna sistematica della letteratura accademica per analizzare le ragioni a favore e contro l’uso dell’IA per supportare la presa di decisioni etiche cliniche. Hanno esaminato 44 pubblicazioni pertinenti e ne hanno riassunto le principali argomentazioni.
Tenendo conto dei principi di bioetica di Beauchamp e Childress, integrati con il principio di esplicabilità, le ragioni a favore dell’uso dell’IA nelle decisioni di etica clinica includono:
- Aumento dell’autonomia del paziente: L’IA potrebbe migliorare l’autonomia dei pazienti fornendo previsioni più accurate e consentendo loro di ricevere i trattamenti desiderati.
- Incremento del beneficio: Fornendo informazioni affidabili, l’IA potrebbe supportare la presa di decisioni in modo da massimizzare i benefici per il paziente.
- Supporto alla non maleficenza: L’IA potrebbe ridurre lo stress sui decisori etici, fornendo loro consulenza ed evitando decisioni dannose.
- Miglioramento della giustizia: L’IA potrebbe contribuire a una distribuzione più equa delle risorse sanitarie, riducendo i pregiudizi esistenti nelle decisioni cliniche.
- Esplicabilità: L’IA potrebbe migliorare la trasparenza delle decisioni etiche, aiutando a comprendere il processo decisionale.
Tuttavia, ci sono anche preoccupazioni e argomenti contrari all’uso dell’IA:
- Limitazione dell’autonomia: L’uso dell’IA potrebbe ridurre l’autonomia dei pazienti se le decisioni etiche vengono ridotte a correlazioni statistiche basate sui dati di addestramento dell’IA.
- Affidabilità delle informazioni fornite dall’IA: Alcuni ritengono che le informazioni fornite dall’IA potrebbero non essere sufficientemente affidabili e che potrebbero mancare di comprensione delle sfumature etiche.
- Mancanza di empatia: L’IA potrebbe mancare di empatia nel supportare decisioni etiche e potrebbe non tener conto della conoscenza strutturale e sistematica.
- Possibilità di bias: L’IA potrebbe riprodurre pregiudizi esistenti nei dati di addestramento, portando a decisioni ingiuste.
- Esplicabilità limitata: L’IA potrebbe mancare di esplicabilità, rendendo difficile comprendere le ragioni dietro le sue decisioni.
Gli Autori concludono affermando che in futuro dovrebbero essere meglio esaminati i principi giustizia ed esplicabilità, dichiarano la loro preoccupazione per i rischi nei confronti dell’autonomia e auspicano maggiore attenzione nei confronti dei bias.
L’articolo non approfondisce la questione radicale: l’IA può essere uno strumento per facilitare i giudizi etici, o può sostituire completamente i giudizi etici individuali? I valori e la storia personale non devono incidere nella decisione di etica clinica? Che spazio avrebbe l’etica ‘in prima persona’, cioè l’approccio centrato sull’autoriflessione e sull’autoconsapevolezza, dove l’individuo assume la responsabilità della propria condotta morale, nel caso in cui le decisioni fossero prese dall’IA?
Leggi l’articolo integrale su BMC Medical Ethics – Should Artificial Intelligence be used to support clinical ethical decision-making? A systematic review of reasons