In un articolo di recente pubblicazione su Nature, Lisa Messeri – antropologa presso l’Università di Yale- e Molly Crockett – scienziata cognitiva a Princeton -, mettono in guardia la comunità scientifica sui rischi legati all’adozione acritica dell’intelligenza artificiale (IA) nella ricerca. Il loro lavoro, basato su un’ampia rassegna di studi e pubblicazioni, sottolinea come gli scienziati rischiano di sopravvalutare le capacità dell’IA, ignorandone le limitazioni e cadendo in potenziali trappole cognitive.
L’eccessiva fiducia nelle capacità dell’IA può condurre a quello che gli autori definiscono “illusione della profondità esplicativa“, dove si tende a confondere la conoscenza altrui (o dell’IA) con la propria, sovrastimando la propria comprensione degli argomenti. Altre problematiche includono l'”illusione dell’ampiezza esplorativa“, che porta a concentrare la ricerca su temi affrontabili dall’IA, trascurando quelli che non lo sono, e l'”illusione dell’oggettività“, ignorando il fatto che gli strumenti IA possono riflettere e perpetuare i bias presenti nei dati su cui sono addestrati.
Messeri e Crockett sottolineano l’importanza per editori, finanziatori e istituzioni di mantenere un equilibrio tra le potenzialità offerte dall’IA e la necessità di una ricerca variegata e inclusiva. Il loro invito è a un uso dell’IA ponderato, consapevole dei suoi benefici ma attento ai suoi limiti, per garantire un’avanzata scientifica equilibrata e critica.
Leggi l’articolo completo su Nature.
Foto di Annie Spratt su Unsplash