Capita che ChatGPT, così come altri grandi modelli linguistici, generi informazioni errate. Nonostante questi chatbot siano in grado di fornire un riassunto solido di un articolo, a volte capita che aggiungano informazioni non presenti nell’originale.
Gli Spazi Latenti, utilizzati da ChatGPT per codificare grandi quantità di testo, generano effetti sulla coerenza e sulla precisione delle risposte. L’ampiezza dei dati di addestramento può portare il modello a inserire informazioni irrilevanti o addirittura errate nelle risposte generate.
Il processo attraverso cui ChatGPT produce l’output, nonostante sia casuale e il modello possa fornire risultati diversi per la stessa query, l’errore tende ad aumentare man mano che l’output diventa più complesso.
È importante affrontare queste problematiche per garantire la fiducia e l’affidabilità dei grandi modelli linguistici.
Leggi l’articolo completo: Why ChatGPT lies [Breakdowns] su artificialintelligencemadesimple.substack.com.
Foto di BoliviaInteligente su Unsplash.