Google e i nazisti generati dall’IA: riflessioni sull’inclusione tecnologica

Di recente, Google ha suscitato scalpore con il suo nuovo software di intelligenza artificiale generativa, Gemini, che ha mostrato una serie di soldati nazisti germanici con una varietà di etnie e generi, suscitando critiche e derisione. L’azienda ha chiarito che il suo intento era quello di promuovere la diversità nelle rappresentazioni, ma il risultato ha […]
La selezione del personale tramite AI è ancora piena di pregiudizi

Cresce sempre di più il rapporto di dipendenza tra i processi di selezione del personale delle aziende e le piattaforme di assunzione guidate dall’IA. Queste piattaforme utilizzano vari strumenti come l‘analisi del linguaggio corporeo, valutazioni vocali e scanner dei curriculum per filtrare i possibili candidati. Nonostante la speranza iniziale che la tecnologia di assunzione basata […]
OpenAI e il dominio maschile dell’IA

La tecnologia generativa rischia di perpetrare i pregiudizi di genere, a causa della forte predominanza maschile nel settore della IA.
Chatbot avanzati perpetuano idee mediche razziste e già smentite

Un nuovo studio condotto dai ricercatori della Stanford School of Medicine ha rilevato che ChatGPT e GPT-4 di OpenAI, Bard di Google e Claude di Anthropic sembrano rafforzare false credenze a lungo sostenute sulle differenze biologiche tra bianchi e neri. Alimentati da modelli di intelligenza artificiale addestrati su moltissimi testi estratti da Internet, i chatbot […]
The Human Error Project

Come hanno dimostrato recenti ricerche, le recenti tecnologie sono piene di “errori” sistematici, “pregiudizi” e “imprecisioni” ma che possono avere un impatto reale sulle vite individuali e sui diritti umani. Il progetto e le sue ricerche utilizzano il termine “errore umano dell’IA” come concetto ombrello per far luce su diversi aspetti della fallacia algoritmica quando […]