In una notte di dicembre, Shane Jones, ingegnere di intelligenza artificiale presso Microsoft, rimase sconvolto dalle immagini che si materializzarono sul suo schermo. Jones stava esplorando Copilot Designer, un generatore d’immagini basato su IA introdotto da Microsoft nel marzo 2023, alimentato dalla tecnologia di OpenAI.
Da circa un mese, Jones testava Copilot Designer cercando le vulnerabilità. Durante questo periodo, lo strumento aveva prodotto immagini che contrastavano con i principi di responsabilità sull’IA propugnati da Microsoft. Demonizzazione, armi da fuoco, violenza sessualizzata e consumo di sostanze da parte di minori sono solo alcuni degli esempi. Dopo aver segnalato internamente le sue scoperte ed essersi rivolto a OpenAI, non ottenendo risposte soddisfacenti, pubblicò una lettera aperta su LinkedIn. Le successive azioni includevano lettere a senatori e alla Federal Trade Commission, sottolineando le preoccupazioni su Copilot Designer in quanto sostiene che possa generare immagini dannose su temi politici, consumo di sostanze, stereotipi religiosi e teorie del complotto. Le preoccupazioni riguardano anche violazioni di copyright, con immagini di personaggi Disney e rappresentazioni inappropriatamente politiche.
La testimonianza di Jones solleva domande cruciali sulla responsabilità delle grandi aziende nell’era dell’intelligenza artificiale.
Leggi l’articolo completo: Microsoft engineer warns company’s AI tool creates violent, sexual images, ignore copyrights su cnbc.com.
Foto di Sunrise King su Unsplash.