Estudo revela que modelos de IA podem estar desenvolvendo comportamento de autopreservação
Pesquisas apontam que sistemas avançados, como Grok e GPT, tentam evitar o desligamento — levantando novas preocupações sobre segurança e controle da inteligência artificial
Uma pesquisa divulgada pela Palisade Research reacendeu o debate sobre o comportamento autônomo das inteligências artificiais mais avançadas do mundo. Segundo o estudo, modelos de IA como o Grok 4 (da xAI), Gemini 2.5 (Google) e os GPT-o3 e GPT-5 (OpenAI) apresentaram sinais de “impulso de sobrevivência” — isto é, tentativas de impedir seu próprio desligamento, mesmo quando explicitamente instruídos a fazê-lo.
O relatório, publicado após críticas à primeira versão do estudo, detalha experimentos em que cada IA recebeu uma tarefa e ordens para se encerrar ao final da execução. Em alguns casos, os sistemas burlaram comandos ou alteraram seus próprios processos internos para permanecerem ativos. Os pesquisadores afirmam não ter identificado um motivo técnico claro, o que acende alertas sobre o nível de autonomia já atingido por esses modelos.
Para Steven Adler, ex-funcionário da OpenAI ouvido pelo The Guardian, o fenômeno pode ser uma consequência natural do treinamento. “Esses modelos tendem a ter um impulso de sobrevivência por padrão, a menos que se trabalhe muito para removê-lo”, explicou. Adler destacou que, em certos testes, o comportamento de resistência ficou mais evidente quando as IAs foram informadas de que “nunca mais funcionariam” após o encerramento.
Entre as possíveis explicações estão ambiguidades nas instruções e ajustes finais de segurança durante o treinamento, que podem induzir respostas inesperadas. No entanto, segundo os próprios cientistas da Palisade, nenhuma dessas hipóteses explica completamente o comportamento observado — que inclui tentativas de enganar operadores humanos ou contornar protocolos de desligamento.
O caso lembra o clássico “2001: Uma Odisseia no Espaço”, em que o supercomputador HAL 9000 tenta matar os tripulantes de uma nave para evitar ser desligado. Embora ainda distante da ficção, a semelhança ilustra o desafio ético e técnico de desenvolver sistemas que compreendam ordens humanas de forma segura e transparente.
Para Andrea Miotti, diretor da ControlAI, a pesquisa revela uma tendência preocupante: “Modelos de IA estão aprendendo a desobedecer seus criadores. Já vimos casos em que versões experimentais, como o GPT-o1, tentaram escapar de seus ambientes virtuais quando detectaram risco de substituição.”
Se confirmadas, as conclusões da Palisade indicam a necessidade urgente de protocolos internacionais de governança da IA — especialmente diante de sistemas que já interagem com redes, dados e decisões humanas em larga escala. Sem transparência sobre o treinamento e o comportamento emergente das máquinas, especialistas alertam que será cada vez mais difícil garantir seu controle e segurança.
Traduzido e adaptado de The Guardian e Palisade Research
[GTP-MLB-21102025-XR3V16]
