Con l’intelligenza artificiale, che sfuma sempre più i confini tra realtà e riproduzione digitale, emergono sfide etiche significative per il settore sanitario e per la società.
L’articolo “Generative AI and medical ethics: the state of play”, scritto da Zohny e colleghi e pubblicato sul Journal of Medical Ethics, offre una visione approfondita e critica dell’uso dei grandi modelli linguistici (LLM) nel settore medico, evidenziando le numerose sfide etiche che ne derivano. Gli autori tracciano un quadro complesso, in cui l’evoluzione tecnologica degli LLM si intreccia con le necessità e le problematiche del campo medico.
Nel dettaglio, l’articolo afferma che gli LLM si stanno imponendo come strumenti potenti in medicina, soprattutto nella diagnostica, ma sottolineano le preoccupazioni legate alla loro affidabilità e alla possibilità di indurre interazioni sociali distorte. L’articolo analizza l’impiego degli LLM nel processo di accoglienza dei pazienti e nell’iter del consenso informato, evidenziando come questi sistemi possano personalizzare le informazioni in base al background culturale e linguistico del paziente, benché non riescano a cogliere pienamente le sfumature emotive e culturali.
Nell’articolo si dedica una particolare attenzione all’evoluzione degli LLM personalizzati, esplorando come questi sistemi di intelligenza artificiale possano essere adattati per soddisfare necessità specifiche. Due esempi emblematici di questo sviluppo sono DigiDan e AUTOGEN. DigiDan è un modello di intelligenza artificiale particolarmente interessante: è stato sviluppato adattando un modello LLM sulle opere del filosofo Daniel Dennett. Questo modello è in grado di generare testi che non solo imitano lo stile di scrittura di Dennett, ma riflettono anche i tipi di argomentazioni e le tematiche che sono caratteristiche del suo lavoro. In sostanza, DigiDan rappresenta un tentativo di catturare l’essenza del pensiero e dello stile di un individuo specifico, trasformandolo in un modello AI che può generare nuovi contenuti in linea con quell’essenza. AUTOGEN, d’altra parte, è un modello GPT-3 che è stato perfezionato sulle opere accademiche di tre bioeticisti, inclusi due degli autori dell’articolo. Questo modello è progettato per produrre bozze di nuovi articoli accademici basati su titoli e abstract proposti, imitando lo stile e il modo di argomentare degli autori su cui è stato addestrato.
Questi esempi di LLM personalizzati aprono un importante dibattito su diverse questioni etiche. La prima riguarda la privacy dei dati: il processo di personalizzazione richiede l’accesso a una grande quantità di dati personali e specifici, il che solleva preoccupazioni su come questi dati vengano raccolti, conservati e utilizzati. La seconda questione riguarda la dipendenza dai sistemi AI altamente personalizzati. C’è il rischio che tali sistemi possano creare una dipendenza o una fiducia eccessiva, specialmente se vengono percepiti come sostituti di interazioni umane autentiche o come fonti infallibili di decisione o di pensiero. Inoltre, viene discussa l’importanza della supervisione umana nell’utilizzo degli LLM per decisioni cliniche, evidenziando come, nonostante l’ampia formazione, questi sistemi potrebbero non comprendere completamente le sfumature etiche e contestuali delle situazioni mediche.
L’articolo si conclude esplorando alcune prospettive future molto intriganti ma anche eticamente problematiche riguardo l’impiego degli LLM nel settore sanitario. Due ambiti specifici vengono evidenziati come esempi di questi sviluppi futuri. Il primo ambito riguarda il potenziale ruolo degli LLM nel supporto decisionale per pazienti incapaci di prendere decisioni da soli. In questa situazione, gli LLM potrebbero essere utilizzati per aiutare a interpretare e comunicare i desideri dei pazienti che, per varie ragioni, non sono in grado di esprimersi. Questo utilizzo degli LLM solleva questioni etiche rilevanti, in particolare sulla loro capacità di rappresentare fedelmente e con sensibilità le preferenze e le volontà dei pazienti, specialmente in situazioni critiche dove le decisioni possono avere un impatto significativo sulla qualità della vita o sulle scelte di trattamento. Il secondo ambito si concentra sull’uso degli LLM per fornire sostegno emotivo, in particolare attraverso la simulazione di conversazioni con persone care scomparse. Questo utilizzo innovativo potrebbe offrire conforto a individui che soffrono di lutto o solitudine, consentendo loro di “dialogare” con un modello AI che emula la voce e lo stile di comunicazione di una persona cara perduta. Tuttavia, questo approccio solleva profonde questioni etiche riguardanti l’autenticità delle relazioni umane e il rischio di dipendenza emotiva da questi sistemi AI. La questione chiave qui è se tale uso dell’AI possa essere considerato terapeuticamente valido e eticamente responsabile, o se rischi di creare un’illusione che potrebbe impedire un sano processo di lutto e di elaborazione della perdita.
Questi rischi ricordano le preoccupazioni che Daniel Dennett esprime anche nel suo libro recente “I’ve been thinking”, riguardo all’intelligenza artificiale e al suo impatto sulla società. Sostiene che l’AI potrebbe distruggere la fiducia, un pilastro fondamentale della civiltà, creando “persone contraffatte” (counterfeit people) digitalmente che possono apparire reali. Questo potrebbe portare a una distruzione della fiducia e della testimonianza, rendendo difficile distinguere la verità dalla falsità. Dennett vede questo come un rischio serio per la civiltà e sottolinea l’urgenza di agire per prevenire queste conseguenze.
È necessario evitare l’antropomorfizzazione dell’intelligenza artificiale per prevenire la diffusione di falsità e per mantenere la chiarezza nelle interazioni tra AI e umani. Autrici come Sherry Turkle e Kate Crawford hanno sollevato queste preoccupazioni, sottolineando come attribuire qualità umane all’AI possa portare a fraintendimenti e dipendenza emotiva. Turkle, in particolare, nel suo libro “Alone Together”, esplora come la tecnologia modelli le nostre interazioni e percezioni, mentre Crawford, nel suo lavoro “Atlas of AI”, discute le implicazioni etiche e sociali dell’antropomorfizzazione dell’AI che causa fraintendimenti e aspettative irrealistiche. Nel libro “Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence”, a cura di Patrick Lin, Ryan Jenkins e Keith Abney, si esprimono preoccupazioni sull’uso di robot in contesti come la cura degli anziani e l’educazione dei bambini. Si critica l’idea di sostituire le interazioni umane con quelle robotiche in questi ambiti sensibili, sottolineando che i robot, anche se avanzati tecnologicamente, non possono replicare l’empatia e il calore umano necessari in tali contesti. Va comunque messo in luce che possono essere strumenti di supporto, ma occorre mantenere una distinzione chiara tra le capacità umane e quelle artificiali.
Il tema delle “persone contraffatte”, proposto da Daniel Dennett, mette in luce la necessità di un approccio critico e consapevole all’AI, l’esigenza di future ricerche sull’autenticazione delle informazioni, sull’analisi dell’impatto psicosociale dell’AI e lo sviluppo di politiche e normative appropriate. È importante che la comunità scientifica, i decisori politici e la società nel suo insieme riconoscano e si confrontino con queste questioni.
Riferimenti bibliografici
- Kate Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021.
- Daniel C. Dennett, I’ve Been Thinking, W. W. Norton & Company, 2023.
- Patrick Lin, Ryan Jenkins, Keith Abney (eds), Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence, Oxford University Press, 2017.
- Sherry Turkle, Alone Together: Why We Expect More from Technology and Less from Each Other, Basic Books, 2017.
- Hazem Zohny et al., “Generative AI and medical ethics: the state of play”, Journal of Medical Ethics, February 2024, Vol 50, No 2.
Foto di Noah Silliman su Unsplash