Il 18 Gennaio, Nature News ha pubblicato un articolo di David Adam, “Medical AI could be ‘dangerous’ for poorer nations, WHO warns”, che evidenzia le preoccupazioni espresse dal World Health Organization (WHO) riguardo l’uso delle tecnologie sanitarie basate sull’Intelligenza Artificiale (AI) nei paesi a basso reddito. La WHO avverte che queste tecnologie potrebbero essere “pericolose” per le popolazioni di queste aree, in particolare se non adeguatamente regolate e inclusive.
La principale preoccupazione della WHO riguarda il rischio che lo sviluppo e l’impiego di queste tecnologie emergenti siano guidati esclusivamente dalle aziende tecnologiche dei paesi più ricchi. Ciò potrebbe portare a un ampliamento delle disuguaglianze e dei pregiudizi esistenti, soprattutto se i modelli AI non sono addestrati con dati che rappresentano in modo adeguato le popolazioni di regioni meno sviluppate.
Le linee guida aggiornate dalla WHO sui grandi modelli multimodali (LMMs) riflettono la necessità di un approccio più inclusivo e regolamentato. I LMMs, che includono modelli AI generativi capaci di creare testo, video e immagini, sono stati adottati rapidamente e hanno un potenziale significativo nella sanità. Tuttavia, la WHO mette in guardia contro una “corsa verso il basso” a livello globale, dove le aziende potrebbero cercare di rilasciare applicazioni AI senza garantirne l’efficacia o la sicurezza.
Un’altra grave preoccupazione sollevata è il rischio di “crollo del modello“, perché i LMMs addestrati su informazioni inesatte o false potrebbero diffondere disinformazione. Jeremy Farrar, esperto della salute globale, sottolinea che le tecnologie AI generative possono migliorare l’assistenza sanitaria, ma ciò richiede una piena comprensione e gestione dei rischi associati.
Infine, la WHO enfatizza l’importanza di non lasciare il controllo di questi potenti strumenti esclusivamente nelle mani delle aziende tecnologiche. Invece, richiede una collaborazione tra governi, gruppi della società civile e utenti finali in tutte le fasi di sviluppo. Viene inoltre raccomandato che parti terze indipendenti eseguano audit post-rilascio su questi modelli, valutando la loro capacità di proteggere i dati e i diritti umani.
In sintesi, l’articolo sottolinea il rischio che l’AI amplifichi le disuguaglianze, che ci sia una corsa irresponsabile verso l’innovazione tecnologica e la necessità di una regolamentazione e collaborazione più inclusiva. È importante che non solo l’AI migliori la medicina, ma risponda anche ai bisogni delle comunità più vulnerabili in tutto il mondo.