Raphaël Millière e Charles Rathkopf nell’articolo “Why it’s important to remember that AI isn’t human”, su Vox del 23 novembre, riflettono su come ChatGPT abbia scardinato il legame tradizionale tra linguaggio e mente. Il linguaggio, solitamente associato a intenzioni e capacità umane, non implica automaticamente la presenza di una mente con emozioni e intenti. Questo cambiamento destabilizza non solo l’antropomorfismo, ma anche l’essenzialismo, secondo il quale le caratteristiche osservabili richiamano un’essenza intrinseca. ChatGPT sfida la logica “tutto o niente”, dimostrando che il linguaggio in sé non implica necessariamente l’esistenza di un’essenza mentale definita. L’articolo invita a un approccio meno rigido nell’analizzare le AI, incoraggiando un’apertura mentale per comprendere la loro complessità senza forzare concetti umani su di esse.
Prima dell’avvento di questa tecnologia, la competenza linguistica era sempre stata un indicatore affidabile della presenza di una mente razionale. Ora, con modelli linguistici come ChatGPT, sorge un dilemma filosofico inquietante: o il legame tra linguaggio e mente è stato interrotto, oppure è stato creato un nuovo tipo di mente.
Quando si interagisce con modelli linguistici, è difficile non avere l’impressione di essere coinvolti con un essere razionale, ma dobbiamo evitare di pensare che gli chatbot abbiano una vita interiore.
L’articolo avverte sull’errore di considerare la mente umana come lo standard aureo per valutare tutti i fenomeni mentali. Questo tipo di chauvinismo antropocentrico può portare a sottovalutare le capacità dei modelli linguistici, pensando che manchino di competenze “vere” perché non possiedono caratteristiche tipiche della psicologia umana, come la coscienza.
Gli autori invitano ad evitare due bias cognitivi: l’antropomorfismo e l’antropocentrismo. Questi bias sono persistenti e radicati in una tendenza psicologica profonda chiamata essenzialismo, che ci porta a pensare che l’appartenenza a una data categoria non dipenda solo dalle caratteristiche osservabili di un oggetto, ma anche da un’essenza inosservabile che ogni oggetto possiede o meno. L’esempio riportato è quello della quercia, che oltre ad avere caratteristiche osservabili, ha una essenza “quercietà”, in analogia con il linguaggio che richiama l’essenza mente razionale.
Questa concezione porta a un principio filosofico chiamato il principio tutto-o-niente, secondo cui tutto nel mondo ha o non ha una mente. Chi accetta il principio tutto-o-niente si trova a dover classificare tutto come “con mente” o “senza mente”, ma l’evidenza empirica da sola non è sufficiente per prendere tali decisioni. Il concetto di mente è sfumato, e ci sono casi limite che sono simili alla mente in certi aspetti ma non in altri. Questo principio del tutto-o-niente, sebbene una volta potesse essere utile, è ormai obsoleto nell’era dell’AI.
L’articolo suggerisce di evitare di fare affidamento esclusivamente sulla mente umana come guida. Prendendo ispirazione dalla psicologia comparata, si propone di esplorare i modelli linguistici con la stessa curiosità aperta che ha permesso agli scienziati di esplorare l’intelligenza di creature così diverse da noi come i polpi. Sebbene i modelli linguistici siano molto diversi dagli animali, la ricerca sulla cognizione animale dimostra come abbandonare il principio tutto-o-niente possa portare a progressi nella conoscenza.
Gli autori invitano sia a evitare l’assunzione antropomorfica, secondo cui le prestazioni eccezionali dei modelli linguistici implicano una serie completa di proprietà psicologiche simili a quelle umane, sia a evitare l’assunzione antropocentrica, secondo la quale se un modello linguistico non somiglia alla mente umana, le sue competenze possono essere ignorate.
Esistono modi di comunicare sofisticati che non sono limitati al paradigma umano, prima di Chatgpt ce lo hanno insegnato i polpi.