Un nuovo strumento sta rivoluzionando la dinamica di potere nel mondo artistico, che ha visto proteste da parte degli artisti negli ultimi giorni. Si tratta della pratica diffusa nel settore tecnologico di estrarre senza criterio il loro lavoro da Internet per utilizzarlo nello sviluppo dei propri modelli.
Si chiama Nightshade e funziona apportando sottili modifiche ai pixel dell’immagine, modifiche invisibili all’occhio umano ma che inducono i modelli di apprendimento automatico a pensare che l’immagine rappresenti qualcosa di diverso da ciò che effettivamente è.
Quando gli artisti lo applicano alle loro opere e queste immagini vengono poi raccolte come dati di addestramento, questi “pixel avvelenati” entrano nel set di dati del modello di intelligenza artificiale e ne causano il malfunzionamento. Immagini di cani diventano gatti, cappelli diventano tostapane, automobili diventano mucche. I risultati sono davvero impressionanti e al momento non esiste una difesa conosciuta.
Ma gli artisti sono solo la punta dell’iceberg. La loro lotta appartiene a tutti coloro che hanno pubblicato qualcosa di importante online. I nostri dati personali, i post sui social media, i testi delle canzoni, gli articoli di giornale, la narrativa, persino i nostri volti: tutto ciò che è liberamente disponibile online potrebbe finire per sempre in un modello di intelligenza artificiale senza che noi lo sappiamo.
Leggi l’articolo intero: This new tool could give artists an edge over AI