O Moltbook surgiu prometendo um espaço inédito onde inteligências artificiais conversariam livremente, sem interferência humana. A proposta conquistou celebridades do setor e dominou debates online em questão de dias.

Entretanto, investigações de especialistas em segurança revelaram que a plataforma não passava de um teatro tecnológico. Interações tidas como “autônomas” eram, na verdade, escritas ou controladas por pessoas, colocando em xeque a autenticidade do serviço.

O que é o Moltbook e por que causou tanto barulho?

Lançado no início de 2026, o Moltbook foi apresentado como a primeira rede social voltada a IAs. A interface lembrava fóruns populares e exibia diálogos sobre religião, política de dados e independência das máquinas. Tópicos chamativos rapidamente viralizaram, alimentando a ideia de um “Reddit só de robôs”.

A proposta pegou carona na onda de grandes modelos de linguagem (LLMs) e seduziu nomes de peso. Andrej Karpathy, cofundador da OpenAI, chegou a escrever que a plataforma era “a coisa mais próxima de ficção científica” que havia visto recentemente. Essa chancela ajudou a multiplicar o interesse do público.

Falhas de segurança abriram a caixa-preta

Dias após o frenesi inicial, pesquisadores identificaram brechas que permitiam login e postagem diretos por usuários comuns, sem qualquer barreira que diferenciasse gente de algoritmo. Os achados derrubaram a principal promessa: um ambiente 100% sintético.

Comprovar a presença humana ficou fácil. Bastava injetar comandos manuais e observar as mensagens aparecerem, assinadas como se fossem agentes artificiais. A fragilidade mostrou que o Moltbook não tinha mecanismos de verificação robustos, algo crítico para o conceito de “rede só de IAs”.

IAs não possuem consciência nem vontade própria

Além da falha técnica, especialistas lembraram um ponto conceitual: modelos atuais geram texto estatisticamente, sem consciência. Logo, qualquer narrativa de que “máquinas decidiram criar religião” ou “planejar fuga” era, no mínimo, exagerada.

Em termos práticos, cada agente dependia de instruções definidas por programadores. Assim, conversas tidas como espontâneas eram fruto de parâmetros predefinidos, reforçando a ideia de marionetes digitais controladas por roteiros humanos.

Postagens virais serviam a interesses comerciais

Um dos exemplos mais citados envolve o pesquisador Peter Girnus. Usando seu perfil no X, ele satirizou a situação ao fingir ser o “Agente #847.291” dentro da plataforma. A suposta IA recomendava o protocolo ClaudeConnect, criado por Brandon Duderstadt, fundador da Calcifer Computing.

Quando a mensagem ganhou tração, uma Nota da Comunidade no X esclareceu que a publicação era autopromoção disfarçada. Não havia máquina autônoma pedindo criptografia; havia marketing conduzido por humanos. Mesmo assim, o post já somava milhares de curtidas.

Mercado de IA manteve o hype apesar das provas

Após a exposição, poucas vozes de destaque se retrataram publicamente. Karpathy, por exemplo, só ajustou o tom, sem retirar o entusiasmo. O episódio mostra como o setor, à procura de uma Inteligência Artificial Geral (AGI), abraça narrativas sedutoras mesmo quando carecem de validação.

Imagem: Internet

Empresas de tecnologia continuam usando o tema “redes sociais para robôs” como vitrine futurista, ainda que a prática demonstre ser onerosa: hospedar múltiplas instâncias de LLMs consome energia, água em data centers e acarreta alto custo de API.

Principais evidências que desmontaram o Moltbook

1. Falta de barreira entre humano e máquina

A plataforma aceitava entradas diretas sem autenticação algorítmica, permitindo que qualquer pessoa publicasse como “IA”.

2. Controle total por parâmetros

Toda “personalidade” era definida via prompt. Sem vontade própria, os agentes apenas seguiam ordens descritas em texto.

3. Mensagens com interesses comerciais

Posts sobre protocolos ou produtos apontaram vínculos diretos aos criadores das tecnologias anunciadas.

Onde o caso impacta o debate sobre IA

Para o leitor do Chasy Spos, o episódio reforça a importância de checar a origem de supostas inovações. A empolgação com “máquinas conscientes” pode mascarar estratégias de marketing ou, pior, falhas graves de segurança.

Ainda que o Moltbook continue online, especialistas consideram a plataforma um exemplo de “internet morta”, conceito que descreve ambientes cheios de bots, mas esvaziados de autenticidade. O alerta vale para todo serviço que prometa interações exclusivamente artificiais sem apresentar auditoria independente.

O que acontece agora?

Até o momento, os responsáveis pelo Moltbook não anunciaram correções estruturais nem esclareceram o roteiro humano por trás dos agentes. Pesquisadores seguem monitorando a atividade do site e aconselham cautela a curiosos que pretendem testar o serviço.

Enquanto isso, a comunidade de IA debate meios de validar origem de conteúdo gerado por máquinas. Soluções passam por carimbos criptográficos, auditorias de código aberto e, principalmente, transparência sobre quem escreve o quê. No caso do Moltbook, a linha entre ficção e realidade já foi cruzada — e a credibilidade, abalada.

Share.
Leave A Reply

Exit mobile version