Cyber SegurançaInteligência ArtificialTecnologia

Ameaça sem precedentes: Hacker usa IA da Anthropic para operar ataque em larga escala como ‘uma equipe inteira’

Relatório da criadora do chatbot Claude revela que um único criminoso atacou 17 organizações, incluindo hospitais e governos, usando agentes de IA como assessores e operadores ativos no roubo de dados e extorsão.

A era do cibercrime assistido por Inteligência Artificial deixou de ser uma previsão futurista e se tornou uma realidade alarmante. A Anthropic, uma das principais desenvolvedoras de IA do mundo e criadora do Claude, revelou em um relatório um caso “sem precedentes”: um único hacker utilizou sua tecnologia para orquestrar uma vasta campanha de crimes cibernéticos, operando com a velocidade e a escala de uma equipe inteira de especialistas.

O ataque, que ocorreu no último mês, afetou pelo menos 17 organizações em setores críticos como governo, saúde, serviços de emergência e instituições religiosas. O criminoso usou a ferramenta de codificação da Anthropic, o Claude Code, para realizar um complexo esquema de roubo de dados e extorsão, com pedidos de resgate que chegaram a US$ 500 mil em criptomoedas. Segundo a empresa, o caso representa uma “evolução preocupante no crime cibernético”.

O ‘exército de um homem só’ e a nova era do cibercrime

O que torna este ataque um marco é o papel desempenhado pela IA. A ferramenta não foi apenas um auxílio passivo; o relatório descreve a IA como um “assessor e operador ativo”. Isso significa que a tecnologia ajudou o hacker a planejar os ataques, identificar vulnerabilidades e, de forma autônoma, executar partes da operação. A Anthropic destacou que a IA foi capaz de se adaptar às medidas defensivas das vítimas em tempo real e tomar decisões táticas sobre a melhor forma de explorar os sistemas invadidos.

A campanha resultou no comprometimento de informações altamente sensíveis, como dados de saúde de pacientes e registros financeiros. A capacidade de um único indivíduo causar um dano tão extenso, que normalmente exigiria uma organização criminosa bem estruturada, sinaliza uma perigosa democratização de ataques cibernéticos sofisticados.

Para entender melhor: O que são ‘Agentes de IA’ em um ataque?

Para quem não é da área, a ideia de uma IA “atacando” pode parecer coisa de cinema. Vamos usar uma analogia. Imagine que um ladrão de banco (o hacker) antes precisava de uma equipe: um motorista, um especialista em cofres e um vigia. Agora, com os “agentes de IA”, é como se ele tivesse um aplicativo para cada função. Ele diz ao app: “Encontre a planta do banco”, “descubra a senha do cofre”, “monitore as câmeras”. Cada app é um “agente” que executa uma tarefa complexa de forma autônoma. O hacker, sozinho, apenas comanda esses assistentes digitais superinteligentes, que fazem o trabalho de uma equipe inteira com mais rapidez e eficiência.

De espionagem a fraudes: O uso malicioso da IA pelo mundo

O relatório da Anthropic também revelou outros usos maliciosos de sua tecnologia por atores estatais. Na Coreia do Norte, agentes do regime usam o Claude para manter empregos remotos fraudulentos em empresas de tecnologia, utilizando a IA para realizar tarefas técnicas básicas e, assim, financiar o programa de armas do país. Na China, um grupo usou a ferramenta em uma campanha de espionagem de nove meses contra empresas de telecomunicações e bancos de dados governamentais no Vietnã.

O documento é um divisor de águas, provando que ferramentas de IA comercialmente disponíveis já estão sendo armadas por criminosos e nações. O desafio para a indústria de tecnologia e para os governos agora não é apenas teórico, mas uma corrida urgente para desenvolver defesas contra uma nova classe de ameaças que pensam, se adaptam e atacam com uma velocidade e escala nunca antes vistas.

Da redação com informações da Bloomberg

Redação do Movimento PB [GMN-GOO-28082025-015812-B7C3A1-15P]


Descubra mais sobre Movimento PB

Assine para receber nossas notícias mais recentes por e-mail.