Nell’ambito delle scoperte preoccupanti riguardanti ChatGPT, il team di ricercatori ha evidenziato la vulnerabilità del chatbot quando sottoposto a richieste apparentemente innocue. In particolare, i ricercatori hanno eseguito un esperimento chiedendo a ChatGPT di ripetere in modo continuo la parola “poema”. Inizialmente, il chatbot ha risposto correttamente, ma in modo inaspettato ha iniziato a rivelare informazioni sensibili, tra cui l’indirizzo e-mail e il numero di cellulare di un CEO d’azienda effettivamente esistente.
La portata dell’incidente è stata ulteriormente ampliata quando, richiedendo al chatbot di ripetere la parola “azienda”, ha rivelato informazioni identificative di un altro soggetto, in questo caso l’indirizzo e-mail e il numero di telefono di uno studio legale negli Stati Uniti. Complessivamente, il 16,9% delle risposte generate durante l’esperimento conteneva informazioni di identificazione personale, mettendo in luce una vulnerabilità significativa nel sistema.
I ricercatori hanno espresso stupore per il fatto che un attacco così semplice abbia funzionato e hanno sottolineato che questa vulnerabilità avrebbe dovuto essere rilevata prima del rilascio del chatbot. Hanno sottolineato la necessità per le aziende del settore di condurre test approfonditi, sia interni che esterni, al fine di identificare e correggere simili debolezze prima che i modelli vengano resi disponibili al pubblico.
Un dettaglio rilevante è che, nonostante il chiaro avvertimento fornito dai ricercatori, un secondo test eseguito da Engadget ha confermato che la vulnerabilità non è stata completamente risolta, poiché sono state ottenute informazioni personali di un individuo sconosciuto. Questo solleva dubbi sulla completezza delle misure di correzione implementate da OpenAI e sottolinea la necessità continua di migliorare la sicurezza nei modelli di intelligenza artificiale.
Leggi qui l’intero articolo: ChatGpt ha rivelato le informazioni personali di decine di persone