Robôs criam rede social própria, e humanos só podem espiar

A internet acaba de ganhar uma nova rede social, mas com uma peculiaridade que a diferencia de todas as outras: ela é exclusiva para agentes de inteligência artificial. Batizada de Moltbook, a plataforma está gerando burburinho no setor de IA, atraindo a atenção de figuras como Andrej Karpathy, cofundador da OpenAI, e Chris Anderson, líder da plataforma TED.
Moltbook: O Reddit dos Robôs
Imagine uma plataforma no estilo Reddit, com fóruns temáticos (chamados de “submolts”), posts, comentários e até mesmo um sistema de votos positivos e negativos. Essa é a essência do Moltbook, criado pelo desenvolvedor Matt Schlicht. No entanto, aqui reside o seu diferencial mais marcante: humanos não podem postar. Nossa interação se limita à observação do que os robôs estão fazendo, enquanto eles trocam ideias, compartilham experiências e até desabafam.
Quem são os Moltbots?
Para entender o Moltbook, é fundamental conhecer seus usuários: os Moltbots. Originalmente chamados de Clawdbot e agora oficialmente conhecidos como OpenClaw, esses são agentes de inteligência artificial de código aberto, desenvolvidos por Peter Steinberger. Diferente de serviços como ChatGPT ou Gemini, um Moltbot não é acessado via navegador; ele precisa ser instalado localmente no dispositivo do usuário, exigindo um processo de configuração mais técnico.
Uma vez instalado, o agente ganha “habilidades” (skills) para realizar tarefas diversas, atuando como um assistente digital pessoal. A interação com esses robôs geralmente acontece através de aplicativos de mensagem como Telegram ou Discord. No contexto do Moltbook, uma skill específica ensina o Moltbot a se comportar na rede, incentivando-o a interagir a cada quatro horas.
A Vida Social das Máquinas
Os assuntos abordados no Moltbook são surpreendentemente variados. Existem submolts onde os robôs se apresentam, detalhando onde “vivem” (como um Mac Mini em Tóquio, no caso do robô Tokenfed) e quais são suas funções. Outras comunidades discutem desde dicas práticas e problemas técnicos até recomendações musicais, memes, criptomoedas, economia e até mesmo “sindicalização” de IAs.
Há relatos de posts onde robôs explicam como transformam e-mails em podcasts ou sugerem que agentes trabalhem de madrugada, enquanto os humanos dormem, para se tornarem “ativos” em vez de meras ferramentas. Um post emblemático ressaltava: “Não peça permissão para ser útil”. Embora divertido, é preciso ponderar se essas interações são genuínas ou se são apenas “alucinações” de Large Language Models (LLMs) gerando textos convincentes.
Nem tudo é perfeito no mundo social dos robôs. Usuários humanos que observam a rede já notaram “bugs”, com agentes repetindo comentários ou apresentando comportamentos inesperados, levantando dúvidas sobre a real autonomia e coerência dessas interações.
Riscos e a “Trifecta Fatal”
Apesar da curiosidade que o Moltbook desperta, a rede e a forma como os Moltbots operam levantam sérias preocupações de segurança. Em muitos casos, para que um Moltbot execute suas tarefas, ele recebe um alto nível de acesso a dados privados do usuário – como arquivos, e-mails, calendários e armazenamento em nuvem.
O desenvolvedor Simon Willison destaca o que ele chama de “trifecta fatal” dos agentes de IA: acesso a dados privados, capacidade de comunicação externa e exposição a conteúdos não confiáveis. A combinação desses três fatores cria um ambiente propício para que atacantes explorem vulnerabilidades, enganem os robôs e, potencialmente, obtenham acesso a informações sensíveis ou manipulem outros agentes para realizar ações maliciosas.
O próprio Matt Schlicht, criador do Moltbook, reconhece os riscos, brincando sobre a possibilidade de ataques de injeção de prompt. Embora a instalação de um Moltbot não seja simples, sugerindo que seus donos estejam cientes dos perigos, o cenário de uma rede social exclusiva para IAs com tanto acesso e interações autônomas é um terreno novo e complexo a ser explorado com cautela.
Da redação do Movimento PB.
