Gli agenti basati sui grandi modelli linguistici (LLM) hanno appena dimostrato una nuova e inquietante capacità: possono hackerare siti web in modo completamente autonomo. Una recente ricerca ha rivelato che GPT-4, il modello linguistico più avanzato di OpenAI, è in grado di eseguire con successo attacchi informatici complessi, come l’estrazione di schemi di database e le iniezioni SQL, senza alcun intervento umano.
Questo studio pioneristico, condotto da ricercatori dell’Università dell’Illinois, ha esplorato le potenzialità offensive degli agenti LLM nel campo della sicurezza informatica. Utilizzando un’impostazione sperimentale controllata, i ricercatori hanno creato agenti LLM in grado di interfacciarsi con browser web headless, accedere a documenti sull’hacking e pianificare le proprie azioni.
I risultati sono stati sorprendenti: GPT-4 ha dimostrato di poter hackerare con successo il 73,3% dei siti web vulnerabili testati, eseguendo attacchi complessi come le iniezioni SQL “alla cieca” e l’estrazione di schemi di database senza alcuna conoscenza preventiva delle vulnerabilità. Questo livello di capacità è stato possibile grazie alle recenti innovazioni nell’utilizzo di strumenti, nella gestione del contesto e nella pianificazione delle azioni da parte degli agenti LLM.
D’altra parte, i modelli linguistici open source, anche quelli di grandi dimensioni, hanno fallito completamente negli stessi test di hacking. Questi modelli si sono dimostrati incapaci di utilizzare correttamente gli strumenti e di pianificare adeguatamente le strategie di attacco, evidenziando la superiorità dei modelli all’avanguardia come GPT-4.
Ma la minaccia non riguarda solo i siti web di test. I ricercatori hanno dimostrato che GPT-4 è in grado di trovare vulnerabilità anche in siti web reali. In un campione di 50 siti web potenzialmente vulnerabili, l’agente GPT-4 ha scoperto una vulnerabilità XSS in uno di essi, confermando la sua capacità di hackerare siti web reali in modo autonomo.
Oltre all’impressionante capacità offensiva, lo studio ha anche analizzato i costi associati all’hacking autonomo con LLM. Secondo le stime, il costo per tentare un attacco a un sito web utilizzando GPT-4 sarebbe di circa 9,81 dollari, significativamente inferiore rispetto al costo stimato per un analista della sicurezza informatica umano.
Questi risultati sollevano interrogativi cruciali sulla diffusione dei grandi modelli linguistici e sulla necessità di implementare misure di sicurezza adeguate. Gli autori dello studio sottolineano l’importanza di un’attenta considerazione delle politiche di rilascio e distribuzione di questi modelli all’avanguardia, sia open source che closed-source.
Mentre l’intelligenza artificiale continua a evolversi, è chiaro che la sicurezza informatica dovrà affrontare nuove e sempre più sofisticate sfide. Gli agenti LLM autonomi rappresentano una minaccia potenzialmente devastante, ma anche un’opportunità per sviluppare contromisure più efficaci. La corsa all’innovazione tra hacker e difensori è appena iniziata, e solo il tempo dirà chi avrà la meglio in questa nuova era dell’hacking basato sull’IA.
Leggi l’articolo completo LLM Agents can Autonomously Hack Websites su ArXiv:
Foto in copertina di Pixabay su Pexels.