Le reti neurali artificiali sono rimaste inscrutabili per lungo tempo. Ma finalmente, recenti scoperte stanno gettando nuova luce su come queste reti possano arrivare a capire i problemi.
I ricercatori di OpenAI hanno scoperto un fenomeno intrigante: sovrallenando le reti neurali, le macchine sembrano sviluppare soluzioni innovative ai problemi. Invece di fermare l’addestramento quando la rete inizia a sovrapporsi, il team ha permesso alla rete (inizialmente per via di un errore) di continuare ad apprendere. Questo ha portato a risultati sorprendenti: la rete non solo ha memorizzato i dati di addestramento, ma ha anche stata in grado di generalizzato a nuove informazioni, raggiungendo una precisione del 100% sui dati di test. Questo fenomeno, chiamato “grokking”, ha sconvolto il modo in cui viene compreso il funzionamento interno delle reti neurali. Le reti neurali non si limitano a memorizzare i dati, ma sembrano sviluppare una comprensione profonda dei problemi, creando soluzioni che vanno oltre i dati di addestramento.
Il processo di grokking è stato esaminato da vicino da ricercatori di diverse istituzioni accademiche. Hanno scoperto che le reti neurali organizzano i dati in modi sorprendenti, come proiettando i numeri su uno spazio 2D e trovando strutture circolari.
Ma la ricerca è solo agli inizi. I ricercatori avvertono che ci sono ancora molte domande aperte. Ad esempio, non è chiaro se queste scoperte si applichino anche a reti neurali più grandi e complesse.
Leggi l’articolo completo: How Do Machines ‘Grok’ Data? su quantamagazine.org.
Immagine generata tramite DALL-E 3.