Un nuovo metodo rivoluzionario consente alla tecnologia dell’IA come DALL-E 3 e Stable Diffusion, di generare immagini ad alta qualità 30 volte più velocemente in un solo passaggio. Questa innovazione, sviluppata dai ricercatori del MIT Computer Science and Artificial Intelligence Laboratory (CSAIL), semplifica il processo di generazione delle immagini, mantenendo o migliorando la loro qualità.
Conosciuto come distillazione di abbinamento di distribuzione (DMD), questo approccio combina principi delle reti generative avversarie (GAN) e dei modelli di diffusione, consentendo alla macchina di generare contenuti visivi in un solo passaggio anziché attraverso centinaia di iterazioni. Il risultato è una produzione più veloce e di alta qualità di immagini, con potenziali applicazioni nell’editing visivo in tempo reale, nella scoperta di farmaci e nella modellazione 3D.
Il framework DMD si basa su due componenti chiave: una perdita di regressione per stabilizzare l’addestramento e una perdita di corrispondenza di distribuzione per garantire che le immagini generate corrispondano alla loro frequenza di occorrenza nel mondo reale. Questo sistema adotta anche due modelli di diffusione come guide, aiutando il sistema a distinguere tra immagini reali e generate.
Il lavoro dei ricercatori del MIT è stato finanziato da diverse fonti, comprese sovvenzioni della National Science Foundation degli Stati Uniti, e sarà presentato alla Conferenza su Computer Vision e Pattern Recognition.
Leggi l’articolo completo: AI generates high-quality images 30 times faster in a single step su web.mit.edu.
Foto di GeneralBroom su Unsplash.