Il professore di diritto Jonathan Turley ha ricevuto un’e-mail preoccupante. Nell’ambito di una ricerca, un collega avvocato californiano aveva chiesto al chatbot AI ChatGPT di generare un elenco di studiosi di diritto che avevano molestato sessualmente qualcuno. Il nome di Turley era nell’elenco.
Il chatbot, creato da OpenAI, affermava che Turley aveva fatto commenti sessualmente allusivi, citando un articolo del Washington Post come fonte dell’informazione. Il problema: l’articolo non è mai esistito e Turley non è mai stato accusato di molestie sessuali.
La sua propensione della chatbot a generare falsità potenzialmente dannose solleva preoccupazioni sulla diffusione della disinformazione e nuove domande su chi sia responsabile quando i chatbot fanno errori di questa natura.