Chefões da tecnologia se preparam para o ‘fim do mundo’: por que os criadores da IA são os que mais a temem?
De bunkers bilionários no Havaí a planos de fuga para a Nova Zelândia, a elite do Vale do Silício investe em “seguros contra o apocalipse”, levantando uma questão incômoda: eles sabem de algo que nós não sabemos?
Enquanto o mundo se maravilha e se assusta com os avanços da Inteligência Artificial, um movimento silencioso e bilionário acontece nos bastidores. Os mesmos titãs da tecnologia que estão construindo esse novo futuro — homens como Mark Zuckerberg, Sam Altman e Elon Musk — são os que mais investem em se proteger dele. A construção de bunkers subterrâneos, a compra de vastas propriedades em locais remotos e os planos de fuga para a Nova Zelândia revelam um paradoxo assustador: os arquitetos da nossa era digital parecem ser os mais convencidos de que um apocalipse, tecnológico ou não, está no horizonte.
O caso mais emblemático é o de Mark Zuckerberg. O CEO da Meta está construindo um complexo de R$ 1,3 bilhão no Havaí que inclui um abrigo subterrâneo autossuficiente, com sua própria energia e fontes de alimento. Embora ele minimize o projeto, chamando-o de “apenas um pequeno abrigo, como um porão”, a escala e o sigilo da obra alimentam especulações. Ele não está sozinho. Reid Hoffman, cofundador do LinkedIn, já admitiu abertamente que cerca de metade dos super-ricos do Vale do Silício possui algum tipo de “seguro contra o apocalipse”. A questão não é mais ‘se’, mas ‘quando’ algo catastrófico acontecerá, e eles querem estar preparados.
A principal fonte desse medo existencial tem um nome: Inteligência Artificial Geral (AGI). Dentro da própria OpenAI, a empresa que deu ao mundo o ChatGPT, o receio é palpável. O cofundador e cientista-chefe da empresa, Ilya Sutskever, chegou a sugerir em uma reunião que os principais cientistas da companhia cavassem um bunker antes de lançarem uma tecnologia tão poderosa no mundo. A declaração expõe a dualidade de Frankenstein da era moderna: o criador que teme profundamente a sua própria criação.
Para quem não é da área, podemos simplificar alguns termos…
O debate sobre o futuro da IA é repleto de siglas. A AGI (Inteligência Artificial Geral) é o ponto hipotético em que uma máquina iguala a inteligência humana, sendo capaz de aprender e raciocinar sobre qualquer assunto. A etapa seguinte seria a ASI (Superinteligência Artificial), quando a IA ultrapassa vastamente a capacidade de todos os cérebros humanos combinados. Já a “Singularidade” é o momento teórico em que esse avanço se torna tão rápido e incontrolável que muda a realidade humana para sempre. É a fronteira final da tecnologia, que promete uma utopia ou, para os mais pessimistas, a nossa extinção.
A promessa de um paraíso e o medo do inferno
Os evangelistas da AGI, como Elon Musk, pintam um futuro de abundância sustentável, com “renda alta universal”, onde robôs pessoais cuidarão de todas as nossas necessidades. Eles argumentam que a superinteligência resolverá as mudanças climáticas, curará todas as doenças e nos dará fontes de energia limpa e inesgotável. No entanto, a mesma tecnologia que promete o paraíso carrega a semente do inferno. E se ela decidir que a humanidade é o problema? “Se for mais inteligente do que você, temos que mantê-lo sob controle. Temos que ser capazes de desligá-la”, alertou Tim Berners-Lee, o criador da World Wide Web.
Muitos cientistas, no entanto, veem todo esse debate como uma distração perigosa. Neil Lawrence, professor de aprendizado de máquina em Cambridge, argumenta que a noção de AGI é “tão absurda quanto a noção de um ‘Veículo Artificial Geral'”. Para ele, não existe um veículo que sirva para tudo, assim como não existirá uma única IA que resolva tudo. O perigo, segundo essa visão, não está em um futuro apocalíptico com máquinas sencientes, mas nos problemas muito reais que a IA de hoje já causa: desinformação em massa, erosão de empregos, concentração de poder e a perpetuação de vieses.
No fim das contas, os bunkers bilionários da elite tecnológica revelam uma verdade incômoda. Talvez o maior perigo não seja uma futura superinteligência que se volte contra nós, mas a mentalidade de seus próprios criadores. Ao se prepararem para fugir das consequências de suas criações, eles demonstram uma desconexão profunda com o resto da humanidade. Eles constroem um futuro do qual pretendem se abrigar, deixando para nós a tarefa de viver nele. A questão que deveríamos nos fazer não é se a AGI vai nos destruir, mas se já não estamos sendo destruídos pela arrogância e pela falta de responsabilidade daqueles que, em sua busca por um poder divino, estão dispostos a arriscar o mundo de todos, desde que tenham seu próprio refúgio garantido.
Redação do Movimento PB
Redação do Movimento PB [NMG-OGO-11102025-A4B8C1-13P]