Un nuovo strumento chiamato Nightshade consente agli artisti di apportare modifiche invisibili ai pixel delle loro opere d’arte prima di condividerle online. Questo viene fatto per interrompere l’addestramento dei modelli di intelligenza artificiale quando essi raccolgono e utilizzano queste opere senza il permesso dell’artista. Nightshade mira a contrastare le aziende di IA che utilizzano le creazioni degli artisti per addestrare i loro modelli, spesso senza il consenso degli artisti stessi, e il suo utilizzo può corrompere in modi imprevedibili le uscite di questi modelli.
Questo strumento, sviluppato da un team guidato da Ben Zhao presso l’Università di Chicago, intende dare potere agli artisti nelle loro battaglie per i diritti d’autore e la proprietà intellettuale contro giganti dell’IA come OpenAI, Meta, Google e Stability AI, che stanno affrontando azioni legali da parte degli artisti che accusano l’uso non autorizzato delle loro opere.
Il team di ricerca ha anche creato uno strumento chiamato Glaze, che consente agli artisti di mascherare il proprio stile personale per proteggerlo dall’uso da parte delle aziende di IA. Sia Nightshade che Glaze manipolano i pixel delle immagini in modi impercettibili per gli esseri umani ma confusi per i modelli di apprendimento automatico.
Nightshade funziona sfruttando una vulnerabilità nei modelli di IA generativa, che vengono addestrati su vasti insiemi di dati raccolti da Internet. Quando le immagini corrotte vengono introdotte in questi insiemi di dati, causano il malfunzionamento dei modelli di IA e la produzione di uscite inaspettate ed errate. Rimuovere i dati corrotti è impegnativo e richiede tempo alle aziende tecnologiche, poiché richiede l’individuazione e la cancellazione di ciascun campione corrotto.
Sebbene ci sia il rischio di un possibile abuso delle tecniche di corruzione dei dati, sarebbe necessario un numero considerevole di campioni corrotti per avere un impatto significativo su modelli di IA più grandi e potenti. Attualmente mancano difese robuste contro tali attacchi, e gli esperti in materia di sicurezza dei modelli di IA sottolineano la necessità di misure preventive.
Leggi qui l’intero articolo: This new data poisoning tool lets artists fight back against generative AI