Gli studiosi di Anthropic scoprono come manipolare le risposte dell’IA

Immagina di schermata cellulare iPhone con varie app di AI tra cui copilot e OpenAI

Gli studiosi di Anthropic hanno scoperto un nuovo metodo, chiamato “many-shot jailbreaking”, per indurre un modello linguistico AI a rispondere a domande inappropriate dopo essere stato esposto a numerose domande meno dannose.  Questo approccio sfrutta la capacità dei modelli LLM con ampie “finestre di contesto”, che tendono a performare meglio su molte attività se ci […]

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto