La ricerca nell’intelligenza artificiale ha fatto passi da gigante negli ultimi anni, con modelli di linguaggio come GPT che hanno dimostrato capacità linguistiche straordinariamente avanzate. Tuttavia, un recente documento del 7 novembre 2023, redatto da un team di esperti provenienti da istituzioni prestigiose come l’Università del Texas ad Austin e il MIT, ci invita a riflettere più criticamente su ciò che questi modelli linguistici avanzati possono effettivamente comprendere e su cosa rappresenta la loro “intelligenza”.
L’articolo, intitolato “Dissociating Language and Thought in Large Language Models”, affronta una questione fondamentale: i grandi modelli di linguaggio (LLMs) possono effettivamente pensare? Gli autori, tra cui Kyle Mahowald, Anna A. Ivanova, Idan A. Blank, e altri, si districano tra due concetti spesso confusi: la capacità di un sistema di elaborare la lingua e la sua capacità di pensare in modo autonomo e razionale.
L’articolo sfata due misconcezioni prevalenti. La prima è che un’entità dotata di una solida competenza linguistica debba necessariamente possedere anche una solida capacità di pensiero. La seconda è il suo rovescio: una cattiva capacità di pensiero significherebbe una cattiva competenza linguistica. Queste idee sono radicate nel modo in cui il linguaggio e il pensiero sono intrecciati nelle nostre menti umane, e come interpretiamo il linguaggio come finestra sul pensiero altrui.
Per affrontare queste fallacie, gli autori propongono di distinguere chiaramente tra competenza linguistica formale – la conoscenza delle regole e delle regolarità statistiche della lingua – e competenza linguistica funzionale – la capacità di usare la lingua in modo efficace e significativo in contesti reali. I modelli attuali, come GPT, eccellono nella prima, ma la loro performance nella seconda è meno costante e spesso richiede interventi specifici.
Questa ricerca è cruciale non solo per gli sviluppatori di AI, ma anche per il pubblico più ampio. Viviamo in un’era in cui interazioni quotidiane con assistenti virtuali e chatbot sono diventate comuni, e c’è il rischio di sopravvalutare la “comprensione” che questi sistemi hanno delle nostre richieste e dei nostri discorsi. Gli autori ci invitano a un esame più approfondito delle capacità reali di questi sistemi e a uno sviluppo futuro che miri a un’integrazione più autentica tra competenza linguistica formale e funzionale.
In sostanza, mentre celebriamo i progressi compiuti dai modelli linguistici avanzati, dobbiamo rimanere consapevoli delle loro limitazioni e continuare a perseguire il progresso in modo informato e critico.
Leggi l’articolo completo Dissociating Language and Thought in Large Language Models su ArXiv:
Foto di ThisIsEngineering su Pexels.