I progressi rapidi e significativi della tecnologia tendono a spaventare le persone, poiché possono avere ripercussioni implacabili su settori come gli affari, l’occupazione e la cultura. Un esempio di ciò è l’attuale preoccupazione riguardo ai grandi modelli linguistici, come il GPT-4 di OpenAI.
Rodney Brooks, noto ricercatore, accademico e imprenditore nel campo della robotica, è anche un’autorità nell’ambito dell’IA. Ha diretto il Computer Science and Artificial Intelligence Laboratory del MIT fino al 2007 e ha ricoperto incarichi di docenza presso la Carnegie Mellon e Stanford. Secondo Brooks, uno dei nostri peccati capitali consiste nel confondere le prestazioni con le competenze.
Quando vediamo una persona svolgere un’attività intellettuale, come descrivere il contenuto di una foto, tendiamo a generalizzare le sue competenze nell’area di riferimento basandoci sulle sue prestazioni. Questa capacità di generalizzazione è un tratto che abbiamo sviluppato evolutivamente. Tuttavia, non possiamo applicare lo stesso processo di generalizzazione ai sistemi di intelligenza artificiale.
Quando analizziamo il funzionamento dei modelli linguistici di grandi dimensioni, scopriamo che non possiedono la stessa inferenza logica che sembrano avere quando generano risposte apparentemente credibili.
Brooks sostiene che ciò accade perché questi modelli mancano di una solida base di conoscenza e non hanno alcun collegamento con il mondo reale. Si basano semplicemente su correlazioni linguistiche e sono incapaci di comprenderne il significato intrinseco.
Continua a leggere l’intervista!Estratto da: Just Calm Down About GPT-4 Already – IEEE Spectrum