Un recente articolo scientifico tratta dell’uso di strumenti di intelligenza artificiale nel campo della medicina, in particolare sulla presenza di bias nei dati clinici utilizzati per addestrare tali strumenti.
Nell’approccio tradizionale, i dati clinici “biased” sono spesso considerati come dati di bassa qualità, in linea con il detto informatico “garbage in, garbage out“. Questo suggerisce che se i dati iniziali sono di scarsa qualità, lo saranno anche i risultati ottenuti da essi.
Gli autori propongono invece un nuovo punto di vista: non considerarli solo dati da correggere, ma “artefatti”, ossia rappresentazioni delle società e delle istituzioni in cui sono raccolti.
Questa prospettiva permette di individuare valori, pratiche e modelli di ingiustizia nel campo della medicina e dell’assistenza sanitaria attraverso l’analisi dei dati clinici stessi. In questo modo, sarà possibile sviluppare nuovi approcci per affrontare il bias, passando da una visione strettamente tecnica a una sociotecnica che tiene conto del contesto sociale storico e attuale come fattore chiave.
Leggi l’articolo Considering Biased Data as Informative Artifacts in AI-Assisted Health Care di Kadija Ferryman, Ph.D., Maxine Mackintosh, Ph.D.,Marzyeh Ghassemi, Ph.D.
Foto in copertina via Unsplash.com