Adams analizza l’idea di Luciano Floridi (Floridi and Cowls 2019; Floridi et al. 2018) e dei suoi colleghi di includere un nuovo principio, chiamato “esplicabilità”, nell’ambito dell’etica dell’intelligenza artificiale in medicina. Questo principio viene aggiunto ai quattro principi classici della bioetica medica di Beauchamp e Childress (1979): beneficenza (fare del bene), non-maleficenza (evitare il male), rispetto dell’autonomia (la capacità di prendere decisioni) e giustizia (la distribuzione di benefici e danni). Il principio dell’esplicabilità richiede che i modelli di intelligenza artificiale siano comprensibili e spiegabili.
Anche per Adams, come per Floridi, l’esplicabilità è utile per “incorporare sia il senso epistemologico di ‘intelligibilità’ (come risposta alla domanda ‘come funziona?’) sia il senso etico di ‘responsabilità’ (come risposta alla domanda ‘chi è responsabile del suo funzionamento?’)”.
L’estensione del set dei principi bioetici di Beauchamp e Childress per includere l’esplicabilità è stata accolta con favore da molti, infatti è stata adottata dall’European Commission’s Independent High-Level Expert Group on Artificial nel documento “Ethics Guidelines on Trustworthy AI” (European Commission Directorate-General for Technology, 2019).
Secondo Adams, l’esplicabilità è cruciale come principio di “secondo ordine” che agevola l’applicazione dei principi classici nell’utilizzo dell’intelligenza artificiale in sanità. Come esempio dell’importanza dell’esplicabilità nelle decisioni ospedaliere, attuate attraverso l’intelligenza artificiale, menziona il triage, che è il processo di valutazione e classificazione delle persone in base alla gravità delle loro condizioni mediche, al fine di determinare l’ordine di priorità per la fornitura delle cure. L’esplicabilità è essenziale sia epistemologicamente, per comprendere meglio le decisioni dell’intelligenza artificiale, sia eticamente, per garantire responsabilità nelle scelte mediche. L’esplicabilità non è un principio autonomo, ma sostiene i principi classici, facilitando l’applicazione dei principi morali primari in situazioni specifiche o complesse.
Alcuni critici “semplificazionisti” sostengono che l’esplicabilità sia ridondante e che i principi classici bastino per affrontare le questioni etiche dell’intelligenza artificiale medica. Cortese et al. (2022) definiscono la esplicabilità come un “requisito epistemico”, non un principio in sé, proprio perché un principio morale è “una norma generale” relativa a certi “fini ultimi”. D’altronde anche Floridi e i suoi colleghi descrivono l’esplicabilità come “principio abilitante”, rispetto ai quattro principi bioetici.
Adam menziona le debolezze del principilismo di Beachamp e Childress: i principi, prima facie, non assoluti, sono soggetti a bilanciamenti e specificazioni a seconda delle varie situazioni, ma afferma che il principilismo è “un tentativo di aggirare le controversie irrisolvibili a livello di teoria etica normativa e la conseguente mancanza di accordo su come procedere” (Keeling e Bellefleur 2016, 2), la sua forza deriva dal fatto che è uno schema funzionale a diverse teorie morali.
Non tiene però conto delle critiche rivolte al principilismo da parte di chi ne denuncia la sua debolezza teorica.
Gert, Culver e Clouser (1997)segnalano la mancanza di un quadro teorico solido su cui radicare i principi che pertanto risultano ambigui. Senza una solida teoria, i principi diventano un semplice elenco incapace di orientare le azioni. Questi autori denunciano la “sindrome dell’antologia”, ciascun principio è legato ad una teoria ma la scelta è discrezionale.
Adams non considera le critiche all’eccessiva astrazione presentate da Stephen Toulmin (1988) che denuncia una “tirannia dei principi”, astratti e incapaci di cogliere le situazioni.
Non menziona le critiche all’“occidentalismo” di chi, come Engelhardt (2016) e ten Have (2016), seppur da prospettive molto diverse, considerano il principilismo come la teoria dell’occidente liberista, razionalista e laico, quindi inadatta ad interpretare esigenze globali.
Riferimenti
Adams J., Defending esplicability as principle for the ethics of artificial intelligence in medicine, in “Medicine, Health Care and Philosophy”, 29 August 2023.
Beauchamp T. L., Childress, J. F., Principles of Biomedical Ethics. Oxford University Press, Oxford 1979.
Cortese J. et al., Should explainability be a fifth ethical principle in AI ethics? AI and Ethics, 2022, https://doi.org/10.1007/s43681-022-00152-w.
Engelhardt H. T., Dopo Dio. Morale e bioetica in un mondo laico, Claudiana, Torino 2016.
Floridi L., Cowls J., A unified framework of five principles for AI in society, in “Harvard Data Science Review” 1, 2019.
Floridi L., Cowls J., Beltrametti M., Chatila R., Chazerand P., Dignum V., Luetge C. et al., AI4People—an ethical framework for a good AI society: Opportunities, risks, principles, and recommendations, in “Minds and Machines”28, 2018, 689–707.
Gert B., Culver Ch. M., Clouser K. D., Bioethics: A Return to Fundamentals, Oxford University Press, Oxford 1997.
Keeling M., Bellefleur O., Principlism and frameworks in public health ethics, National Collaborating Centre for Healthy Public Policy, Montréal 2016.
ten Have H., Global Bioethics: An introduction, Routledge, London 2016.
Toulmin S., The Abuse of Casuistry: A History of Moral Reasoning, University of California Press, Berkeley 1988.
Leggi l’articolo: La difesa del principio di “esplicabilità”