AI: trasparenza o prestazioni? Un Aut Aut da bilanciare

quadrato con cerchio

Nell’articolo Do All AI Systems Need to Be Explainable?, Hamilton Mann  si interroga sulla necessità che tutti i sistemi di intelligenza artificiale (AI) siano spiegabili. L’autore evidenzia la crescente richiesta di “Explainable AI” (AI spiegabile) in risposta alla comprensione dei rischi legati agli algoritmi opachi (black box).

Pur sottolineando la necessità di bilanciare la trasparenza con l’efficacia delle prestazioni, l’autore menziona tre aree sensibili in cui la spiegabilità dell’AI è particolarmente importante.

  1. Assistenza sanitaria: Nei settori medici, modelli AI vengono utilizzati per predire condizioni critiche, è importante che i medici possano comprendere il ragionamento dietro queste previsioni per poter fidarsi delle indicazioni date dall’AI e intervenire di conseguenza.
  2. Sicurezza nazionale: Sistemi avanzati di intelligenza artificiale vengono impiegati in sistemi di sorveglianza per rilevare minacce di sicurezza in aeroporti, stadi e luoghi pubblici. È cruciale che le decisioni dell’AI siano comprensibili per evitare falsi allarmi o interpretazioni errate che potrebbero compromettere la sicurezza effettiva.
  3. Sistema legale: La comprensione delle ragioni dietro le decisioni AI è critica, poiché influenzano direttamente le libertà individuali e i diritti.

In tutte queste aree, la spiegabilità dell’AI è fondamentale per garantire la fiducia e per consentire agli esseri umani, che prendono decisioni basate sulle indicazioni dell’AI, di capire e valutare l’affidabilità di tali indicazioni.

L’autore ricorda che ci sono situazioni in cui ciò che conta è principalmente la praticità e l’efficienza nell’uso quotidiano degli strumenti AI, senza la necessità di conoscere i dettagli complessi dei loro funzionamenti interni. Menziona questi ambiti in cui la spiegabilità dell’AI non è così critica:

  1. Raccomandazioni su piattaforme di streaming: Gli algoritmi che suggeriscono film, serie TV o musica su piattaforme di streaming potrebbero non richiedere un livello alto di spiegabilità. L’utente medio potrebbe non avere la necessità di conoscere i dettagli intricati degli algoritmi, poiché ciò che conta maggiormente è l’efficacia nel suggerire contenuti rilevanti.
  2. Funzione di correzione automatica nei dispositivi: L’AI che corregge gli errori di battitura nei dispositivi potrebbe non richiedere una spiegazione dettagliata. Gli utenti si fidano del sistema poiché l’importante è che corregga gli errori senza necessariamente comprendere i dettagli del funzionamento interno.

Il controllo è necessario nelle aree in cui le decisioni dell’AI hanno un impatto significativo sulla vita umana, come nella sanità, nella sicurezza nazionale e nel sistema legale. Qui la trasparenza delle decisioni AI è fondamentale perché le scelte possono influenzare direttamente i diritti, le libertà o la sicurezza delle persone, mentre, in altri settori meno cruciali conta soprattutto l’efficacia e l’efficienza.

La proposta teorica dell’autore è di operare un bilanciamento pragmatico tra alcuni principi, con risvolti etico-pratici:

  1. Spiegabilità e prestazioni: È cruciale trovare l’equilibrio tra la comprensibilità delle decisioni AI e le loro performance.
  2. Complessità e chiarezza: Bisogna bilanciare la capacità dei modelli complessi di catturare dettagli con la loro comprensibilità.
  3. Adattabilità e generalizzazione: È essenziale equilibrare la capacità dei modelli di adattarsi a pattern specifici senza cadere nell’eccessiva aderenza ai dati di addestramento.
  4. Prestazioni e utilizzo delle risorse: Trovare un punto di equilibrio tra le prestazioni dei modelli e l’efficienza nell’uso delle risorse disponibili.

In sintesi, la filosofia che emerge è quella di trovare un equilibrio tra spiegabilità e prestazioni, adattando la esplicabilità dell’AI in base alle esigenze specifiche dei diversi contesti di applicazione.

L’autore presenta un utile framework per inquadrare la questione della spiegabilità dell’AI, che potrebbe costituire la base per ulteriori analisi specifiche. Ad esempio, potrebbe non essere sempre evidente quali siano i contesti cruciali e quali no, o se esistano livelli accettabili di non-esplicabilità anche in situazioni critiche o di emergenza. La quadratura del cerchio tra esplicabilità ed efficacia nell’AI non è un compito facile.

Riferimento:

Hamilton Mann, Do All AI Systems Need to Be Explainable?, in “Stanford Social Innovation Rewiew”, Nov. 15, 2023.

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto