Google e i nazisti generati dall’IA: riflessioni sull’inclusione tecnologica

primo piano su iphone con cartella "IA" che contiene Gemini e ChatGPT

Di recente, Google ha suscitato scalpore con il suo nuovo software di intelligenza artificiale generativa, Gemini, che ha mostrato una serie di soldati nazisti germanici con una varietà di etnie e generi, suscitando critiche e derisione. L’azienda ha chiarito che il suo intento era quello di promuovere la diversità nelle rappresentazioni, ma il risultato ha provocato reazioni negative. Il vicepresidente senior di Google, Prabhakar Raghavan, ha riconosciuto il problema e promesso azioni correttive, sottolineando la complessità dei sistemi di intelligenza artificiale e la difficoltà di garantire rappresentazioni accurate e non offensive.

Questo episodio solleva questioni più ampie sull’IA generativa e la sua relazione con la realtà. L’IA generativa non è progettata per riflettere la realtà in modo onesto, ma piuttosto per produrre immagini fantasiose in risposta a un input. Tuttavia, questo solleva preoccupazioni riguardo alla possibilità che tali tecnologie possano perpetuare stereotipi e pregiudizi, come dimostrato da casi precedenti di bias algoritmico su piattaforme Google come Google Photos.

La situazione evidenzia anche una questione più ampia riguardo all’inclusione e alla giustizia nei sistemi tecnologici. Mentre alcuni sostengono che l’IA dovrebbe essere in grado di produrre contenuti “politically incorrect” per evitare una “lobotomizzazione” della tecnologia, altri sottolineano che ciò può portare a risultati dannosi e discriminatori. Inoltre, emerge il dilemma della responsabilità aziendale nel garantire che le tecnologie siano utilizzate in modo etico e equo.

Leggi qui l’intero articolo: The Deeper Problem With Google’s Racially Diverse Nazis

Foto di Solen Feyissa su Unsplash

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto