Gemini, un’applicazione di intelligenza artificiale di Google, oltre alle numerose immagini ha generato non poche controversie, mostrando risultati “razzialmente diversificati” quando sono stati richiesti ritratti di figure storiche come i Padri Fondatori americani, i papi e persino i nazisti. Questa diversità ha portato anche figure influenti come Elon Musk a far parte delle loro critiche.
Google ha risposto sospendendo temporaneamente la funzionalità dell’IA, ammettendo che alcuni risultati erano offensivi o inesatti, attribuendo il problema a una sovra-compensazione dell’algoritmo nel cercare di mostrare diversità. La discussione si sposta quindi su come le aziende tecnologiche possono gestire meglio questa tensione tra accuratezza e inclusività.
È importante continuare ad esplicitare gli obiettivi dell’algoritmo e capire come gli utenti possano utilizzare l’applicazione. Per farlo al meglio è necessario che le aziende definiscano i propri valori e li integrino nei loro strumenti basati sull’IA, così da evitare risultati indesiderati o dannosi.
Un approccio maggiormente interattivo potrebbe aiutare le aziende a comprendere meglio le preferenze degli utenti e generare risultati coerenti con tali preferenze.
Gli sviluppatori di IA hanno la capacità tecnica per farlo. La domanda è se hanno la capacità filosofica per confrontarsi con le scelte di valore che stanno facendo e l’integrità per essere trasparenti a riguardo.
Leggi l’articolo completo: Black Nazis? A woman pope? That’s just the start of Google’s AI problem su vox.com.
Foto di BoliviaInteligente su Unsplash.