La salute come bussola per l’intelligenza artificiale

bussola

Integrare dati, principi e teorie

L’intelligenza artificiale, particolarmente nell’apprendimento profondo, è incentrata sui dati, impara direttamente da essi senza presupporre teorie. Gli esseri umani, invece, si affidano a principi e teorie per interpretare i dati e comprendere il mondo. Questa differenza suggerisce che l’uomo potrebbe trarre ispirazione dall’IA per un aggiornamento continuo delle proprie teorie, adattandole in base a nuove informazioni. L’IA non “comprende” i problemi nel modo in cui lo farebbe un essere umano con una teoria o un principio guida.

Questi modelli elaborano dati attraverso un processo di addestramento che li porta a identificare pattern e a fare previsioni o prendere decisioni basate su quei pattern. Tuttavia, il modo in cui questi modelli arrivano a generalizzare le soluzioni a situazioni nuove, che non hanno mai incontrato durante il loro addestramento, rimane in gran parte non spiegato. Per esempio, il grokking, un fenomeno in cui un modello di IA, dopo un prolungato periodo di addestramento senza miglioramenti significativi, improvvisamente mostra un netto avanzamento e inizia a eseguire il compito con successo, sfida la nostra comprensione tradizionale dell’apprendimento graduale. Analogamente, la discesa doppia si verifica quando un modello, aumentando la sua complessità oltre un certo punto di sovra-adattamento, inaspettatamente migliora le prestazioni invece di peggiorarle come previsto dalla teoria statistica classica.

Anche se i sistemi di intelligenza artificiale non sono completamente esplicabili, sono ampiamente utilizzati perché sono efficaci in compiti specifici, spesso superando le prestazioni umane. La loro adozione è supportata da rigorosi processi di test e validazione, supervisione umana, e sono integrati come strumenti di supporto piuttosto che come decisori autonomi.

Salute come apripista per l’etica dell’IA

Il recente documento dell’ONU, “Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models“, pubblicato il 18 gennaio 2024, è il frutto del lavoro di esperti di etica, tecnologia digitale, legge, diritti umani e salute pubblica. Questo documento approfondito sottolinea l’importanza di incorporare etica e diritti umani nel nucleo stesso del design, dell’implementazione e dell’utilizzo dell’intelligenza artificiale nel settore sanitario. Si identificano le sfide etiche e i rischi nell’utilizzo dell’IA in ambito sanitario, proponendo sei principi:

  1. Proteggere l’autonomia: L’essere umano dovrebbe controllare i sistemi sanitari e le decisioni mediche, garantendo che i fornitori abbiano le informazioni necessarie per utilizzare i sistemi di IA in modo sicuro ed efficace. È fondamentale che le persone comprendano il ruolo che i sistemi di IA svolgono nella loro cura, salvaguardando la privacy dei dati e la riservatezza attraverso un consenso informato valido e quadri legali appropriati per la protezione dei dati.
  2. Promuovere il benessere umano, la sicurezza e l’interesse pubblico: I progettisti di IA devono rispettare i requisiti normativi per la sicurezza, l’accuratezza e l’efficacia, definendo chiaramente gli usi o le indicazioni dei loro prodotti. È necessario che siano disponibili misure di controllo della qualità e che si promuova il miglioramento dell’uso dell’IA nel tempo, evitando l’utilizzo dell’IA in caso di danni mentali o fisici evitabili con metodi alternativi.
  3. Garantire trasparenza, spiegabilità e intelligibilità: Le tecnologie IA devono essere comprensibili sia per gli sviluppatori sia per gli utenti, inclusi professionisti medici, pazienti e regolatori. Le informazioni riguardanti l’IA devono essere pubblicate o documentate in modo da facilitare una consultazione pubblica significativa e un dibattito sull’utilizzo appropriato dell’IA.
  4. Favorire responsabilità e rendicontabilità: È fondamentale assicurare che l’IA in ambito sanitario sia utilizzata in condizioni appropriate e da personale adeguatamente formato. Deve essere garantita la partecipazione attiva di pazienti e clinici nella valutazione e nello sviluppo dell’IA, applicando principi regolamentari sia nella fase di sviluppo dell’algoritmo sia nel suo utilizzo pratico. Devono essere disponibili meccanismi adeguati per questioni di responsabilità e per il risarcimento in caso di danni o impatti negativi.
  5. Garantire inclusività ed equità: L’IA deve essere progettata per essere accessibile ed equa, senza discriminazione per età, sesso, identità di genere, reddito, etnia, orientamento sessuale, capacità o altre caratteristiche. È importante che l’IA sia disponibile non solo in contesti ad alto reddito, ma anche in paesi a basso e medio reddito, e che non codifichi pregiudizi svantaggiosi per gruppi identificabili. Deve essere monitorata per identificare effetti sproporzionati su gruppi specifici di persone.
  6. Promuovere un’IA reattiva e sostenibile: È necessario che le tecnologie IA siano sviluppate in linea con la promozione della sostenibilità dei sistemi sanitari, dell’ambiente e dei luoghi di lavoro. Ciò implica un approccio che consideri non solo i benefici immediati, ma anche le conseguenze a lungo termine sulle risorse esistenti, riducendo l’impatto ambientale e migliorando le condizioni lavorative.

Per garantire che i modelli di linguaggio di grandi dimensioni (LMM) siano etici, sicuri e rispettosi della privacy nel settore sanitario, è essenziale una serie di raccomandazioni.

Gli sviluppatori dovrebbero ricevere formazione etica, simile a quella richiesta nella professione medica, per allinearsi con i requisiti etici e aumentare la fiducia nei loro prodotti. È importante eseguire valutazioni dell’impatto sulla protezione dei dati prima del loro utilizzo, valutando il rischio per i diritti e la libertà delle persone. Inoltre, i LMM dovrebbero essere addestrati con dati raccolti in conformità con le migliori pratiche sulla protezione dei dati. I set di dati devono essere costantemente aggiornati e adatti ai contesti specifici di utilizzo. La trasparenza sui dati utilizzati per l’addestramento è fondamentale, così come la remunerazione equa e l’assistenza ai lavoratori dei dati, incluse salvaguardie per il loro benessere. I modelli dovrebbero essere co-progettati coinvolgendo utenti e stakeholder, assicurando che siano affidabili e accurati per i compiti specifici, prevedendo eventuali risultati secondari.

Il ruolo della salute nell’evoluzione etica dell’intelligenza artificiale

L’approccio etico adottato nel campo della salute può servire da modello illuminante per altri settori, dove sfide comuni come la privacy dei dati, la responsabilità e la trasparenza sono ugualmente cruciali.

La salute, profondamente radicata nei diritti umani e regolamentata con cura, offre un terreno fertile per sviluppare strategie efficaci. L’approccio etico e inclusivo dell’IA nel settore sanitario delineato dall’OMS è un modello, una “bussola”, per un approccio olistico e globale alla salute, in linea con i principi di “One Health”. Questo implica una visione della salute come fenomeno interconnesso, richiede soluzioni collaborative, multilaterali e rispettose delle diverse realtà globali.

Il documento dell’OMS non solo affronta gli aspetti tecnologici e clinici dell’IA, ma si immerge profondamente nell’impatto sociale, economico e etico delle tecnologie IA sulle persone e sulle comunità a livello globale, segnando un punto di svolta nell’evoluzione etica dell’intelligenza artificiale in medicina. La salute emerge come settore pionieristico per l’integrazione dell’etica nell’intelligenza artificiale, toccando aspetti universali presenti in ogni ambito della vita umana. Ogni individuo, indipendentemente dal proprio contesto socio-economico, culturale o geografico, è interessato dalla salute, e questo rende l’IA in sanità un potente esempio di impatto globale. In questa ottica, il concetto di intelligenza estesa di Joi Ito, che promuove una sinergia tra intelligenza umana e artificiale, si rivela importante per un’integrazione etica e efficace dell’IA nella salute. La visione di Ito di un sistema integrato, in cui diverse forme di intelligenza collaborano, si allinea con l’approccio olistico necessario per affrontare i complessi problemi globali.

Bibliografia

  1. Will Douglas Heaven, “Large language models can do jaw-dropping things. But nobody knows exactly why,” MIT Technology Review, March 4, 2024.
  2. Isaac S. Kohane, M.D., “Injecting Artificial Intelligence into Medicine“, NEJM AI, Vol. 1, No. 1, December 11, 2023, DOI: 10.1056/AIe2300197.
  3. Joi Ito, “Forget about artificial intelligence, extended intelligence is the future“, MIT Media Lab, April 24, 2019.
  4. WHO, “Ethics and Governance of Artificial Intelligence for Health”, June, 2021.
  5. WHO, “Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models”, January 18, 2024.

Foto di Dunamis Church su Unsplash

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto