Google DeepMind ha presentato un nuovo strumento di watermarking che indica se le immagini sono state generate con l’intelligenza artificiale. Questo strumento, denominato SynthID, sarà inizialmente disponibile solo per gli utenti del generatore di immagini IA di Google, Imagen, ospitato sulla piattaforma di machine learning di Google Cloud, Vertex. Gli utenti potranno generare immagini utilizzando Imagen e poi decidere se aggiungere o meno un watermark. L’obiettivo è aiutare le persone a riconoscere quando un contenuto generato dall’IA viene presentato come reale o per proteggere i diritti d’autore.
Negli ultimi anni, la crescente popolarità dei modelli IA generativi ha portato alla diffusione di deepfake, pornografia non consensuale e violazioni del copyright. Il watermarking è diventato una delle soluzioni più popolari proposte per contrastare questi problemi.
la Casa Bianca ha annunciato a luglio di aver ottenuto impegni da importanti aziende IA come OpenAI, Google e Meta per sviluppare strumenti di watermarking al fine di combattere la disinformazione e l’uso improprio dei contenuti generati dall’IA.
SynthID funziona utilizzando due reti neurali. Una prende l’immagine originale e produce un’altra immagine praticamente identica, ma con alcuni pixel modificati. Ciò crea un cambiamento invisibile all’occhio umano. La seconda rete neurale può riconoscere questo modello e informare gli utenti se rileva un watermark, sospetta la presenza di un watermark o scopre che un’immagine non ha un watermark.
Nonostante l’entusiasmo per questa nuova tecnologia, ci sono ancora molte sfide da affrontare. Ad esempio, non tutti i sistemi di watermarking si sono dimostrati robusti nel tempo. Abbiamo affrontato questa discussione precedentemente qui. Tuttavia, il lancio di Google DeepMind rappresenta un passo importante nella giusta direzione.
L’articolo originale è disponibile a questo link.
La problematica principale rimane comunque aperta: con la democratizzazione di sistemi di generazione di contenuto artificiale, è praticamente impossibile, anche esistesse un sistema di watermarking perfetto, includerlo in generatori di immagini (e audio, video etc etc…) che effettivamente sono utilizzati per frodi e misuso. A questo link è possibile trovare un esempio teorico di un sistema di watermarking funzionante.