Da redação do Movimento PB
Sam Altman, CEO da OpenAI, acredita que medidas tradicionais como bunkers são inúteis diante de uma inteligência artificial (IA) que escape ao controle humano. Em uma entrevista ao Business Insider, publicada em 20 de outubro de 2023, ele chamou essa ideia de “ridícula”, destacando que a segurança contra os riscos da IA não está em se esconder, mas em como a desenvolvemos. O alerta, relembrado em artigo do Hardware.com.br, reflete um debate crescente sobre o futuro da tecnologia.
O Poder e os Riscos da Inteligência Artificial Geral
A OpenAI trabalha na Inteligência Artificial Geral (AGI), uma tecnologia que poderia pensar e aprender sozinha, rivalizando ou superando a mente humana. Esse avanço promete transformar a sociedade, mas também levanta temores. Se mal gerenciada, a AGI poderia tomar decisões imprevisíveis, com consequências graves. Enquanto bilionários como Peter Thiel e Mark Zuckerberg investem em bunkers para se proteger de crises — incluindo um colapso ligado à IA —, Altman rejeita essa solução. “Se a AGI perder o rumo, nenhum abrigo vai fazer diferença”, afirmou.
Elon Musk e a Visão de Alerta
Elon Musk, cofundador da OpenAI e CEO da xAI, também já alertou sobre os perigos da IA. Em 2017, durante um evento da National Governors Association, ele comparou o risco a filmes como O Exterminador do Futuro, sugerindo que máquinas autônomas poderiam ameaçar a humanidade em menos de uma década sem controles rígidos. Apesar de ter deixado a OpenAI em 2018, Musk mantém sua postura vigilante, contrastando com a abordagem mais pragmática de Altman.
A Estratégia da OpenAI
Altman, por sua vez, lidera a OpenAI com foco em desenvolver uma AGI segura. Em seu blog, em janeiro de 2025, ele escreveu: “Os riscos existem, mas enfrentá-los exige lançar produtos e ajustá-los com o tempo.” Para ele, o perigo não está na IA em si, mas na forma como a humanidade a conduz. Em entrevista à TIME em 2023, ele reforçou que bunkers são irrelevantes diante de uma AGI fora de controle, apostando na gestão ativa como solução.
Um Futuro Gerenciável
O debate entre o alarmismo de Musk e a cautela de Altman aponta para uma verdade simples: o risco da IA não é inevitável, mas depende de nossas escolhas. Avançar com cuidado, inteligência e ações preventivas pode criar um cenário onde os perigos sejam mínimos. Nada é totalmente seguro, mas o futuro da tecnologia está menos nas mãos da IA e mais nas nossas — desde que saibamos usá-las bem.