Ex-cientista-chefe da OpenAI queria “construir um bunker antes de liberar a AGI”, revela reportagem


Medo do apocalipse: bastidores da corrida pela inteligência artificial geral

Ilya Sutskever, ex-cientista-chefe e cofundador da OpenAI, vinha se preparando para o surgimento da inteligência artificial geral (AGI) como quem se antecipa ao fim do mundo. Segundo reportagens recentes e trechos do livro “Empire of AI”, da jornalista Karen Hao, Sutskever teria discutido abertamente com colegas a ideia de construir um bunker antes que a empresa liberasse para o mundo sua tecnologia mais avançada.

Em um encontro da equipe ocorrido no verão de 2023, Sutskever teria dito, com naturalidade: “Vamos definitivamente construir um bunker antes de liberar a AGI.” A reação dos colegas presentes, inicialmente de perplexidade, deu lugar à constatação de que ele falava sério — e refletia uma preocupação real com o impacto potencial da AGI na humanidade.


A crença em um “rapto tecnológico”

Mais do que um plano de segurança, o bunker revelava uma visão quase espiritual de Sutskever sobre o futuro da inteligência artificial. Segundo uma fonte ouvida por Hao, havia dentro da OpenAI um grupo que via o surgimento da AGI como uma espécie de “arrebatamento”. “Literalmente, um rapto”, afirmou um pesquisador próximo ao cientista.

Essa visão não é totalmente nova para quem acompanha a trajetória de Sutskever. Ainda antes do lançamento do ChatGPT em 2022, ele já havia afirmado acreditar que alguns modelos de IA estariam “levemente conscientes” — uma declaração que causou espanto na comunidade científica e acendeu alertas sobre o limite entre tecnologia e especulação metafísica.

Leia Também:  Tensão entre Índia e Paquistão Eleva Risco de Conflito Nuclear

Da obsessão ao rompimento

A inquietação de Sutskever com os rumos da OpenAI não se limitava ao poder da tecnologia. Segundo fontes, ele passou a questionar também a forma como a empresa vinha conduzindo o desenvolvimento da AGI — preocupação que culminou, meses depois, em sua participação ativa na tentativa fracassada de destituir o CEO Sam Altman, em novembro de 2023.

Junto com outros membros do conselho, Sutskever liderou a chamada “Blip” — nome informal que funcionários da OpenAI deram ao episódio — que buscava tirar Altman do comando da empresa. No entanto, com a rápida mobilização de funcionários e investidores a favor do CEO, Sutskever voltou atrás e se retratou. Ainda assim, sua permanência na companhia se tornou insustentável, levando à sua saída pouco tempo depois.


A fronteira tênue entre genialidade e paranoia

A história de Ilya Sutskever ilustra as tensões profundas que marcam o avanço das tecnologias de inteligência artificial. De um lado, a ambição científica de construir sistemas mais inteligentes que o ser humano. Do outro, o temor existencial sobre os riscos imprevisíveis de liberar esse poder ao mundo.

Enquanto figuras como Sam Altman continuam afirmando que a OpenAI “sabe como construir a AGI”, muitos especialistas ainda consideram que esse objetivo está distante — ou mesmo inatingível. Mas a postura de Sutskever mostra que, nos bastidores do Vale do Silício, o debate sobre a segurança e os limites éticos da IA não é apenas técnico: envolve visões quase religiosas sobre o destino da humanidade.

Leia Também:  Putin Parabeniza Papa Leão XIV e Busca Diálogo com Vaticano

Fonte: Futurism / The Atlantic
Autora: Noor Al-Sibai
Imagem: Divulgação / OpenAI

Compartilhar: