Gaslighting Tecnológico: O que a Anthropic nos ensina sobre transparência e bugs invisíveis
A sensação de estar sendo trapaceado pela própria ferramenta que deveria te salvar é real. Eu resolvi rodar o Claude Code no modo de raciocínio médio, acreditando piamente que seria o equilíbrio ideal entre custo e eficiência. Comecei a criar skills preventivas para evitar o consumo excessivo de tokens — reflexo do medo gerado pelos relatos de usuários sobre sessões que drenavam créditos como um buraco negro. O resultado foi um desastre: bastaram três intervenções em um código que já estava redondo para o repositório sofrer regressões inacreditáveis.
O que eu não sabia na hora, mas que a Anthropic agora admite em um post-mortem detalhado, é que não era erro de engenharia meu, mas um colapso sistêmico na arquitetura deles.
O Erro da Premissa
A Anthropic tentou ser esperta e priorizou a latência sobre a substância. Em março, eles reduziram o esforço de raciocínio padrão de “alto” para “médio” sem alarde. A ideia era entregar respostas rápidas, mas o que entregaram foi um modelo incapaz de lidar com a complexidade estrutural de um projeto real. Quando eu escolhi o modo médio, estava apenas validando uma decisão de infraestrutura que já tinha nascido capenga.
A situação piorou com um bug de “amnésia progressiva”. O sistema deveria limpar o cache de raciocínio apenas uma vez após inatividade, mas um erro na lógica fez com que ele apagasse o contexto a cada turno. Meu Claude estava trabalhando como um cirurgião que esquece onde fez o corte anterior a cada ponto que dá. Por isso as regressões: ele perdia o fio da meada e destruía o que já estava pronto.
O Garrote no Pensamento
Para fechar o triângulo do erro, inseriram uma trava de 25 palavras nas respostas entre chamadas de ferramentas. O objetivo era reduzir a verbosidade, mas acabaram castrando a capacidade lógica do modelo. Menos palavras significaram menos contexto. O resultado prático foi uma queda de performance que nós sentimos na pele antes de virar estatística no relatório oficial.
O Que Aprendemos
A Anthropic já corrigiu os problemas e resetou os limites, mas a cicatriz na confiança permanece. Precisamos entender que a performance da IA não é um valor absoluto, mas um ajuste fino de variáveis que nem sempre estão sob nosso controle.
Transparência não é opcional quando falamos de agentes que mexem no núcleo dos nossos repositórios. O caso Claude Code é um lembrete: no fluxo de trabalho moderno, o “ajuste silencioso” de um parâmetro de nuvem pode ser tão destrutivo quanto um bug no seu próprio código.
Paulo Santos: Estrategista de Produtos Digitais & Automação | Soluções Inteligentes com IA e Low-Code
