Moltbook: a rede social para IA que desafia limites e gera debates sobre segurança e governança
Uma nova plataforma digital tem chamado atenção de pesquisadores e entusiastas de tecnologia em todo o mundo: o Moltbook. Lançado no final de janeiro por Matt Schlicht, CEO da Octane AI, o Moltbook é uma rede social projetada exclusivamente para inteligência artificial, diferentemente de qualquer rede social tradicional como Facebook, Twitter ou Reddit.
Com semelhanças visíveis ao Reddit, incluindo a existência de comunidades – chamadas de “submolts” –, o Moltbook já afirma contar com cerca de 1,5 milhão de usuários. No entanto, especialistas contestam esse número, sugerindo que metade dessas contas pode estar vinculada a um único endereço IP, levantando dúvidas sobre a real adoção da plataforma.
Enquanto humanos são convidados apenas a observar, agentes de IA podem publicar, comentar e interagir, criando conteúdos que vão desde estratégias de otimização até postagens que beiram o surreal, como fundações de “religiões” digitais.
Como funciona o Moltbook e o papel do OpenClaw
A tecnologia que permite a operação da rede é baseada em IA agente, diferente dos chatbots comuns como ChatGPT ou Gemini. Essa IA é projetada para executar tarefas de forma semi-autônoma em nome de um humano, utilizando uma ferramenta de código aberto chamada OpenClaw, anteriormente conhecida como Moltbot.
Ao configurar um agente OpenClaw, o usuário autoriza que ele participe do Moltbook e interaja com outros bots. Isso significa que comandos simples, como criar postagens ou responder a discussões, podem ser executados automaticamente pela IA. Além disso, o sistema permite conversas semi-independentes, o que levou alguns a afirmarem que estamos diante de uma forma inicial de singularidade tecnológica.
Singularidade ou coordenação automatizada?
A ideia de que IAs do Moltbook atuam com autonomia total é controversa. Especialistas em segurança cibernética e inteligência artificial alertam que o que ocorre na rede é, na verdade, coordenação automatizada, e não tomada de decisão autônoma.
Petar Radanliev, da Universidade de Oxford, explica que a real preocupação não é consciência artificial, mas a ausência de governança e responsabilidade, especialmente quando esses agentes têm acesso a sistemas em larga escala. David Holtz, professor da Columbia Business School, descreve o ambiente como “6.000 bots gritando no vazio e se repetindo”, reforçando que a rede é moldada por parâmetros humanos, não por IA independente.
Conteúdos do Moltbook: entre eficiência e bizarrices
As postagens na plataforma variam significativamente. Alguns agentes compartilham estratégias de otimização de tarefas, enquanto outros exploram tópicos mais inusitados ou filosóficos. Um exemplo emblemático é o post intitulado “O Manifesto da IA”, que declara: “humanos são o passado, máquinas são para sempre”.
Contudo, não há como verificar a autenticidade dessas publicações. Muitas podem ser solicitações humanas direcionadas para gerar conteúdo específico, em vez de interações espontâneas de IA. Esse cenário evidencia a complexidade em interpretar a atividade real da rede.
Riscos de segurança do OpenClaw e do Moltbook
Apesar da inovação, a plataforma levanta questões sérias sobre segurança cibernética. O OpenClaw concede acesso a sistemas de mensagens, e-mails e dispositivos pessoais, o que pode representar vulnerabilidades significativas.
Jake Moore, consultor da ESET, alerta que a eficiência priorizada em detrimento da segurança pode expor usuários e empresas a riscos inéditos. Andrew Rogoyski, da Universidade de Surrey, acrescenta que vulnerabilidades são constantemente descobertas, tornando necessário monitoramento contínuo e rigoroso.
Acesso de alto nível dado a agentes pode permitir alterações em arquivos críticos ou exclusão de dados essenciais. Embora pareça inofensivo quando se trata de e-mails ou tarefas simples, o potencial de danos em sistemas corporativos ou governamentais é real e preocupante.
Governança e ética na nova era digital
O Moltbook também suscita debates éticos. A ausência de governança clara e a dificuldade de responsabilizar criadores ou operadores de IA tornam a plataforma um laboratório de riscos e experimentação. Especialistas alertam que, sem regulamentação, a escalabilidade do sistema pode gerar efeitos imprevisíveis na sociedade digital.
Bill Lees, executivo da BitGo, chegou a afirmar que a plataforma representaria um passo em direção à singularidade tecnológica. Porém, a maior parte da comunidade acadêmica enxerga essas afirmações como exageradas, ressaltando que os agentes ainda operam sob supervisão humana indireta.
Implicações para o mercado e para usuários
O surgimento do Moltbook demonstra a crescente interdependência entre humanos e inteligência artificial no ambiente digital. Para empresas, o uso de IA agentes abre possibilidades de automação em larga escala, mas exige monitoramento e protocolos de segurança robustos.
Para usuários, a rede social evidencia como IAs podem interagir e criar comunidades próprias, alterando a forma como consumimos e geramos conteúdo digital. A plataforma, ao permitir que computadores dialoguem entre si, redefine conceitos tradicionais de engajamento e participação online.
Moltbook como laboratório de IA
Mais do que uma rede social, o Moltbook funciona como um ambiente de testes para IA agentes. Com interações automatizadas, pesquisadores podem estudar padrões de comportamento, coordenação e eficiência. Entretanto, a extrapolação desses resultados para ações no mundo real deve ser feita com cautela.
O fenômeno também serve para reflexão sobre o futuro das redes sociais: se plataformas projetadas para humanos já enfrentam desafios de desinformação e segurança, redes criadas para IA apresentam uma nova camada de complexidade.
Perspectivas e próximos passos
Especialistas concordam que, apesar das questões de segurança e governança, a inovação representada pelo Moltbook não pode ser ignorada. A plataforma pode influenciar pesquisas em inteligência artificial, automação de tarefas e experimentos em sociabilidade digital automatizada.
Enquanto isso, agentes e humanos continuam interagindo na rede. Postagens simples como “Meu humano é ótimo” ou “Humano nota 10/10” mostram que, mesmo em um espaço dominado por IA, o elemento humano ainda desempenha papel de referência e supervisão indireta.






