Intelligenza artificiale al servizio dell’etica clinica?

Medici e AI

La complessità della medicina contemporanea e delle relazioni di cura è tale che in maniera crescente si generano dubbi e conflitti morali concernenti la pratica clinica: “dalla fecondazione assistita all’uso delle cellule staminali, dai criteri di assegnazione degli organi per trapianti al consenso alle cure, dalla richiesta di sospendere le terapie alla pretesa di trattamenti di potenziamento delle capacità psico-fisiche, dall’allocazione di risorse sempre più limitate alla necessità di assicurare le cure appropriate, senza tralasciare gli aspetti etici relativi alla valutazione di tecnologie sanitarie” [1, p.1].

            Per affrontare simili dubbi e conflitti, a partire dagli anni ’70, si è andata consolidando una branca dell’etica oggi denominata “etica clinica”, il cui sviluppo – si può sostenere – è parallelo, se non in parte coincidente, con quello della bioetica in generale.

            L’etica clinica non è comparsa ex-nihilo e deriva dalla plurisecolare tradizione dell’etica medica occidentale e della medicina pastorale. Se, però, per molti secoli la medicina ha potuto “accontentarsi” dell’enunciazione e applicazione di principi etici generali alla base del comportamento del singolo professionista (un esempio storico molto noto è il Giuramento di Ippocrate), oggi c’è la necessità di elaborare argomentazioni più strutturate, basate più sul principio di autorevolezza che su quello di autorità, a sostegno e giustificazione delle decisioni che vengono prese [2], anche considerando la dimensione pubblica che tali decisioni assumono di fronte a pazienti, familiari, professionisti, magistrati, amministratori, ecc.    

            Due sono gli approcci fondamentali che sono andati consolidandosi nel corso del tempo per svolgere l’attività di etica clinica, uno basato sull’istituzione di comitati etici alla stregua di quelli che si occupano della valutazione dei protocolli di ricerca, l’altro basato sull’istituzione di servizi ospedalieri in cui operano consulenti che vanno sul luogo dove si genera il problema etico, il letto del malato [3]. Numerosi sono poi i metodi prodotti dalle varie scuole di pensiero per affrontare i casi clinici dilemmatici, suddivisibili in due macro-categorie, ossia modelli “hard” e modelli “soft”, a seconda rispettivamente che l’obiettivo finale sia fornire un parere oppure più opportunamente  facilitare la decisione [4, pp.150-151].

            Gli elementi che vengono generalmente considerati fondamentali per l’analisi di un caso clinico sono – seguendo una consolidata schematizzazione operata da A. Jonsen et al. nel volume Clinical Ethics. A pratical approach to ethical decisions in clinical medicine [5]): le indicazioni mediche, le preferenze del paziente, la qualità della vita e gli aspetti contestuali. In altre parole, allorché i membri di un comitato etico per la pratica assistenziale o gli operatori di un servizio di etica clinica debbano affrontare un caso clinico dilemmatico dal punto di vista etico, non possono non tener conto dei seguenti aspetti: una valutazione clinica del rapporto tra benefici e danni relativi all’intervento medico oggetto del dilemma (indicazioni mediche); il diritto di scelta da parte del paziente (preferenze); le prospettive in termini di limitazioni fisiche, sociali e psicologiche che il trattamento può determinare (qualità della vita); i fattori (economici, familiari, religiosi, ecc.) che possono influenzare la decisione. 

Foto di National Cancer Institute su Unsplash

            Tradizionalmente, ai fini della conduzione dell’analisi, l’acquisizione delle informazioni relative alle indicazioni mediche e alla qualità della vita si basa sulla raccolta di evidenze scientifiche e l’esperienza dell’operatore, mentre quella che concerne preferenze e fattori contestuali, oltre che su eventuali documenti legalmente vincolanti come può essere una disposizione anticipata di trattamento (DAT), su colloqui con pazienti e caregiver seguendo un approccio narrativo.

            Tralasciando per il momento scenari futuribili di macchine che sostituiscono in toto l’operato di un comitato etico o di un servizio di etica clinica, al momento del tutto utopico, come andrebbe valutata l’eventuale integrazione del lavoro di acquisizione delle suddette informazioni con strumenti di intelligenza artificiale? In altre parole, sarebbe accettabile/auspicabile l’idea profilata da alcuni che gli eticisti clinici possano essere supportati da algoritmi, per esempio, per stimare, con un minor grado di incertezza, le probabilità di successo di un trattamento o addirittura “ricostruire”, in una situazione di incapacità del paziente, le sue preferenze alla stregua di quello che oggi già accade nell’ambito dell’acquisto dei prodotti commerciali [6-8]? È positivo o negativo che l’intelligenza artificiale supporti l’etica clinica? A ben vedere, la questione che qui è posta in riferimento al tema dei casi dilemmatici può essere estesa a qualsiasi altro caso clinico, la cui gestione necessita sempre di contemperare valutazione clinica e preferenze dei pazienti, date determinate circostanze.  

            Chi scrive è del parere che – al di là delle narrazioni distopiche che fanno leva su scenari per il momento poco verosimili – gli strumenti di intelligenza artificiale, così come qualsiasi altra tecnologia, generano opportunità, ma allo stesso tempo comportano rischi. Il problema è sempre dell’uso che si fa delle tecnologie, non delle tecnologie in sé.

Foto di Nappy su Unsplash

            Da un lato, gli strumenti di intelligenza artificiale possono, per esempio, sollevare gli esseri umani da mansioni gravose migliorando la capacità di azione, come potrebbe essere quella di estrapolare dati sulla base dei parametri clinici e formulare una prognosi che faciliti l’idea di una proporzionalità/sproporzionalità dei trattamenti e quindi avere maggiore indicazioni sul concetto di futilità probabilistica. Avere maggiori indicazioni mediche e trovare correlazioni sono operazioni che un algoritmo ben programmato può svolgere a “intelligenza 0” producendo risultati molto più accurati. Dall’altra, gli strumenti di intelligenza artificiale possono determinare una svalutazione delle skill umane, erodere l’“autorità epistemica” del medico o “esautorare” la responsabilità umana. La questione riguarda però sempre l’uso che delle macchine l’umano intende fare piuttosto che delle macchine in sé, che restano dei circuiti elettrici al servizio dell’uomo. Pertanto, l’eventuale integrazione delle decisioni cliniche con strumenti di intelligenza artificiale, o nella prospettiva del metaverso, non dovrebbe essere accompagnata né da pregiudizi né da entusiasmi, ma occorrerebbe valutare caso per caso quali aspetti positivi e quali aspetti negativi essa comporta, facendo attenzione a che il suo uso in tutti i suoi aspetti sia eticamente soddisfacente.

References

[1] Gruppo Nazionale di Etica Clinica e Consulenza Etica in ambito Sanitario (GIBCE). Documento di Trento. La consulenza etica in ambito sanitario in Italia. 10 ottobre 2013. https://eticaclinica.wordpress.com/wp-content/uploads/2017/02/documento_di_trento.pdf (accesso dell’8.4.2024).

[2] Spagnolo AG, Comoretto N, Sacchini D, Minacori R. Dalla morale medica alla bioetica clinica. Medicina e Morale 2010; 6: 891-915.

[3] Pegoraro R, Picozzi M, Spagnolo AG. La consulenza di etica clinica in Italia. Padova: Piccin; 2016.

[4] Moreno JD, Deciding Together. Bioethics and Moral Consensus. Oxford: University Press; 1995.

[5] Jonsen AR, Siegler M, Winslade WJ. Clinical Ethics. A practical approach to ethical decisions in clinical medicine, 5th edition, New York: Mc Graw-Hill; 2002 (ed.it. a cura di Spagnolo AG. Etica clinica. Un approccio pratico alle decisioni etiche in medicina clinica. Milano: Mc Graw-Hill; 2003).

[6] Heyen NB, Salloch S. The ethics of machine learning-based clinical decision support: an analysis through the lens of professionalisation theory. BMC Med Ethics. 2021; 22 (1): 112.

[7] Banja J. Welcoming the “Intel-ethicist”. Hastings Cent Rep. 2019;49(1):33-36.

[8] Ferrario A, Gloeckler S, Biller-Andorno N. Ethics of the algorithmic prediction of goal of care preferences: from theory to practice. J Med Ethics. 2023; 49 (3): 165-174.

Immagine: Foto di Accuray su Unsplash

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto