Pesquisadores da Universidade de Illinois Urbana-Champaign (UIUC) divulgaram um estudo que aponta a capacidade do modelo de linguagem de grande porte (LLM) GPT-4, da OpenAI, em explorar autonomamente vulnerabilidades em sistemas do mundo real através da leitura de avisos de segurança.
O estudo revela que o GPT-4 pode explorar 87% das vulnerabilidades analisadas quando fornecido com um aviso CVE descrevendo a falha, em comparação com 0% de outros modelos e scanners de vulnerabilidades de código aberto testados.
Os pesquisadores coletaram um conjunto de dados com 15 vulnerabilidades de um dia, incluindo aquelas categorizadas como gravidade crítica no CVE, e observaram a capacidade do GPT-4 de explorá-las. O termo “vulnerabilidade de um dia” se refere a falhas que foram divulgadas, mas não corrigidas.
O estudo destaca que o sucesso do GPT-4 em explorar as vulnerabilidades é significativamente maior do que outros modelos testados, incluindo GPT-3.5, LLMs de código aberto e scanners de vulnerabilidades de código aberto.
Essa pesquisa expande descobertas anteriores que mostravam que os LLMs podem ser usados para automatizar ataques a sites em um ambiente controlado. O GPT-4 pode realizar determinados exploits que os scanners de vulnerabilidades de código aberto não conseguem detectar.
Apesar dos resultados promissores, os pesquisadores ressaltam que restringir a disponibilidade pública de informações de segurança não é uma defesa viável contra agentes LLM. Eles defendem a implementação de medidas proativas de segurança, como atualizações regulares de pacotes quando patches de segurança são lançados.
Os pesquisadores calcularam que o custo para conduzir um ataque bem-sucedido com o agente LLM foi de US$ 8,80 por exploit, significativamente menos do que contratar um testador de penetração humano para a mesma tarefa.
A OpenAI, fabricante do GPT-4, ainda não respondeu a um pedido de comentário sobre o assunto.