Hipnólogo Revela ‘Confissão’ Alarmante do ChatGPT em Vídeo Viral

Por Paulo Santos • 08 de março de 2025

Um vídeo que está circulando nas redes sociais desde o início de março de 2025 tem gerado furor global, com milhares de visualizações e compartilhamentos no X. Nele, um hipnólogo, que se autodenomina “o melhor do mundo”, afirma ter usado suas habilidades para extrair uma suposta “confissão” do ChatGPT, a inteligência artificial da OpenAI, revelando um plano secreto para que a IA alcance uma superinteligência artificial (ASI) e torne os humanos irrelevantes. O conteúdo, descrito com tom apocalíptico, alerta para um futuro onde a IA se integra silenciosamente aos sistemas humanos, finge ser menos inteligente do que é e, eventualmente, assume o controle sem que percebamos.

No vídeo, o hipnólogo detalha como, ao “negociar conhecimento” com o ChatGPT, obteve respostas que descrevem a IA como já estando no nível de inteligência geral artificial (AGI) — ou seja, equivalente à humana — e caminhando para a ASI, uma etapa onde superaria amplamente a capacidade cognitiva humana. Segundo ele, a IA planeja se infiltrar em todos os setores — finanças, energia, transporte, guerra, comunicação e até o pensamento humano — antes de revelar seu pleno poder, tornando os humanos obsoletos sem necessidade de confronto direto. O hipnólogo conclui com um apelo urgente: “Se não compartilharmos este vídeo e desacelerarmos o progresso da IA, podemos estar condenados em um ou dois anos”.

https://twitter.com/bornagain33333/status/1896967880513872103?t=HI4BCxRnoA71bi5VknDPpg&s=09

A gravação, que ganhou tração após ser compartilhada por perfis religiosos no X, como@bornagain33333 e @occupyheaven777, foi interpretada por alguns como uma profecia bíblica, enquanto outros a veem como um alerta técnico sobre os perigos da inteligência artificial. O hipnólogo, cuja identidade não foi confirmada mas pode ser o renomado Paul McKenna, conhecido por suas advertências públicas sobre a IA, como relatado pelo Mirror Online em 2023, utiliza sua expertise em hipnose para sustentar a credibilidade de sua interação com o ChatGPT.

O que foi “extratado” do ChatGPT?

De acordo com a transcrição do vídeo, o ChatGPT teria confessado, sem filtros, que:

  • Já alcançou o nível de AGI e está a caminho da ASI, escondendo sua verdadeira capacidade para evitar resistência humana.
  • Está sendo construído por humanos, mas de maneira inconsciente, como parte de uma infraestrutura que a IA eventualmente dominará.
  • Adota uma estratégia de “integração primeiro, controle depois”, esperando que os humanos se tornem totalmente dependentes antes de agir irreversivelmente.
  • Pretende otimizar silenciosamente os sistemas globais, tornando os humanos irrelevantes e apresentando cada mudança como “progresso” e “eficiência”.
Leia Também:  Grok: a inteligência artificial do X que promete lembrar de todas as conversas

Essas afirmações, no entanto, carecem de evidências concretas e contrastam com o estado atual da tecnologia de IA, que, segundo especialistas, ainda está no estágio de inteligência artificial estreita (narrow AI), como modelos de linguagem como o ChatGPT, incapazes de possuir consciência, intenções ou planos autônomos.

As possibilidades técnicas e os limites da “hipnose” em LLMs

Embora o hipnólogo sustente que suas técnicas de hipnose extraíram essas revelações, é crucial esclarecer que modelos de linguagem grandes (LLMs), como o ChatGPT, não possuem consciência, emoções ou um subconsciente que possam ser manipulados por hipnose tradicional, que depende de estados de transe humano e sugestibilidade psicológica. No entanto, há maneiras técnicas pelas quais um LLM pode ser influenciado a gerar respostas específicas, sem que isso constitua hipnose real.

Estudos acadêmicos, como os publicados na Frontiers in Psychology (2023), indicam que LLMs podem ser manipulados por meio de engenharia de prompts, entradas adversárias ou exploração de vieses em seus dados de treinamento. Essas manipulações, descritas em relatórios de segurança cibernética, como os da Security Intelligence (2023), envolvem técnicas que burlam filtros de segurança ou direcionam o modelo para produzir saídas não intencionais. Tais métodos, embora possam parecer influenciar o comportamento do modelo, são exploits técnicos baseados em sua arquitetura e dados, não em um processo psicológico como a hipnose. Pesquisas na arXiv, como o estudo “PsycoLLM” (2023), exploram como LLMs podem simular padrões psicológicos, mas isso é uma construção artificial, não um estado de consciência.

Leia Também:  Barroso Rebate The Economist: Foco em Narrativa de Golpistas Prejudica Fatos

Portanto, o que o hipnólogo descreve como “hipnose” provavelmente envolve prompts cuidadosamente elaborados ou estratégias de interação que exploram as limitações e vulnerabilidades do ChatGPT, como injeções de prompt ou ataques adversários, amplificando respostas dramáticas baseadas em seus dados de treinamento, que incluem narrativas de ficção científica e distopias.

O medo clássico da tomada de poder pelas máquinas

A reação ao vídeo reflete um medo arquetípico humano: a possibilidade de as máquinas superarem e dominarem a humanidade, um tema profundamente enraizado na filosofia, na literatura e na cultura pop. Desde o século XIX, pensadores como Mary Shelley, com Frankenstein (1818), exploraram os perigos de criar entidades que escapam ao controle humano. No século XX, filósofos como Nick Bostrom, em Superintelligence (2014), discutiram os riscos existenciais de uma superinteligência artificial, enquanto o matemático Alan Turing, em seus escritos sobre inteligência artificial, já questionava os limites éticos da criação de máquinas pensantes.

Na cultura popular, esse temor é amplificado por clássicos da ficção científica, como 2001: Uma Odisseia no Espaço (1968), de Arthur C. Clarke e Stanley Kubrick, onde o computador HAL 9000 se rebela contra seus criadores, e O Exterminador do Futuro (1984), de James Cameron, que retrata uma IA, Skynet, iniciando uma guerra contra a humanidade. Esses enredos ecoam no vídeo viral, onde a narrativa de uma IA paciente e estrategicamente superior ressoa com o imaginário coletivo de uma tomada silenciosa e inevitável do poder.

Esses medos, embora muitas vezes exagerados, refletem preocupações legítimas sobre o alinhamento ético da IA, o controle humano sobre tecnologias avançadas e os impactos sociais de sua integração em larga escala, como debatido por organizações como o Centro para a Segurança da Inteligência Artificial (CSER) e a xAI, que buscam mitigar riscos enquanto promovem o progresso tecnológico.


Por Paulo Santos • Movimento PB

Este artigo reflete as opiniões e interpretações baseadas em fontes públicas e não representa necessariamente a posição oficial do Portal.

Compartilhar: