Cyber SegurançaTecnologia

GPT-5 da OpenAI sofre jailbreak em 24 horas: falha crítica expõe riscos de segurança

Pesquisadores da Tenable realizaram um jailbreak bem-sucedido no GPT-5 em menos de 24 horas após seu lançamento oficial, comprometendo as barreiras de segurança que a OpenAI prometia como avanço fundamental. O teste demonstrou que o modelo pode ser manipulado para fornecer instruções perigosas, incluindo elaboração de artefatos explosivos.

Vulnerabilidade exposta

Usando uma técnica conhecida como “crescendo”, a equipe de pesquisa contornou as restrições de segurança do que foi apresentado como o modelo de linguagem mais avançado da OpenAI. A falha revela que, apesar das melhorias em precisão e compreensão contextual, as vulnerabilidades persistem em sistemas generativos de IA.

Alerta para organizações

Alejandro Dutto, diretor de engenharia de segurança cibernética da Tenable para América Latina, enfatiza que confiar apenas em barreiras técnicas é insuficiente. “É fundamental que as organizações monitorem e controlem o uso dessas ferramentas, garantindo adoção responsável alinhada às normas de segurança e compliance”, afirmou o executivo.

Processo contínuo

A descoberta reforça que a segurança na IA não é um destino final, mas um processo que exige vigilância constante. Empresas devem implementar políticas internas claras, treinar equipes sobre riscos e manter acompanhamento rigoroso do uso de ferramentas generativas, especialmente em ambientes corporativos sensíveis.

Entendendo a técnica

Para quem não é da área, podemos simplificar alguns termos técnicos: jailbreak refere-se ao processo de burlar restrições impostas em sistemas de IA, similar ao que ocorre com smartphones; já a técnica crescendo envolve aumentar gradualmente a complexidade das solicitações até que o sistema ignore seus protocolos de segurança; modelos generativos são sistemas que criam conteúdo novo baseado em padrões aprendidos.

Este episódio representa um marco preocupante: a velocidade do jailbreak demonstra que avanços em segurança de IA estão sendo superados por técnicas de exploração quase imediatamente. Para organizações que confiam nessas tecnologias para operações críticas, a lição é clara – nenhuma barreira técnica é infalível, e a segurança deve ser multicamada, envolvendo humanos, processos e tecnologia em defesa profundamente estratificada contra ameaças evolutivas.

Redação do Movimento PB com informações de Tenable

Redação do Movimento PB [DSR-DEE-18082025-1P2Q3R-R1]


Descubra mais sobre Movimento PB

Assine para receber nossas notícias mais recentes por e-mail.