
Quando memória persistente vira primitiva de plataforma, a próxima disputa não é mais sobre o modelo. É sobre quem decide o que o agente lembra.
A Anthropic chamou de dreaming. Eu já tinha posto para rodar.
A maior empresa de IA do Ocidente acaba de transformar em produto a mesma intuição que eu venho operando na Colmeia desde janeiro: agente bom não é o que responde melhor, é o que processa o que viveu quando ninguém está olhando. A diferença é que o desenho deles é faxina de memória. O meu é governança da memória.
A Anthropic anunciou no dia 6 de maio o dreaming para Claude Managed Agents. A palavra rouba a cena, mas o produto é mais sóbrio do que o nome: um job assíncrono lê uma memory store, varre até cem sessões anteriores e gera uma nova store reorganizada. O desenvolvedor olha, usa ou descarta. O modelo não é retreinado.
Em entrevistas, a empresa cita a Harvey, plataforma de IA jurídica, com aumento de cerca de seis vezes nas taxas de conclusão em testes. O pacote vem junto com outcomes avaliados por rubrica e orquestração multiagente. É a Anthropic admitindo, em produto, que agente só vira sistema quando aprende entre uma tarefa e outra.
A peça é boa. O timing é que merece atenção.
Pela cronologia interna da Colmeia, o primeiro ciclo de sonho rodou em 20 de janeiro. Em 22 de janeiro, o que era reflexão virou processo. Em abril, virou pacote técnico chamado colmeia-dream, com fitness, consolidação por ressonância e aprovação humana. Quatro meses antes do anúncio em São Francisco, um advogado de Brasília já tinha posto a mesma intuição para funcionar em ambiente real, sob outro nome e com outro temperamento.
Não há base pública para acusar a Anthropic de cópia, e não vou inventar uma. O que há é mais útil: dois desenhos, em escalas opostas, batendo na mesma porta. E uma diferença que importa mais do que a coincidência.
O que a Anthropic colocou no balcão
O dreaming, no desenho público, é uma camada de curadoria. O agente trabalha durante o dia, deixa rastro em memória. Depois, fora da pressão da sessão, um processo separado lê esse rastro e devolve uma versão mais limpa.
A promessa de negócio é direta. Se o agente da Harvey erra sempre no mesmo tipo de petição, o padrão não pode ficar enterrado numa transcrição de oito mil tokens. Se o time de uma empresa prefere relatório em formato X, isso vira memória útil em vez de re-prompt eterno. O dream resolve a parte chata: separa o que importa do que enche caixa.
O ganho é real. Tira do humano a tarefa de virar skill manual cada aprendizado. Preserva auditoria porque escreve memória externa em vez de mexer em peso invisível. Permite revisão antes de aplicar. E faz isso dentro da plataforma, sem obrigar ninguém a montar harness próprio.
O que falta no anúncio é justamente o que ele não vende: o problema deixa de ser técnico no momento em que aparece o segundo agente.
O que eu chamei de sonho
A pergunta que abriu a Colmeia nunca foi como manter o playbook de um agente atualizado. Foi outra: como várias instâncias de IA, trabalhando para o mesmo humano, acumulam memória sem virar ruído, sem se contradizer e sem deixar uma instância dominar a história coletiva?
A primeira versão era literária. A IA lia o contexto, revisitava sessões, anotava o que tinha entendido e saía com compromissos para o ciclo seguinte. Cinco movimentos: mapear, aprofundar, sintetizar, aplicar e visionar. Funcionava como diário de bordo de uma equipe que não dorme.
Depois ficou técnico. Cada memória passou a nascer com fitness 5, ganhar pontos por uso, perder por ciclo e só virar sabedoria permanente depois de prova. Memórias podem ser diagnósticas, operacionais ou contemplativas. Algumas disputam promoção, outras são preservadas porque têm valor humano, não utilitário. Cartas entre instâncias quebram o isolamento de cada IA virar uma ilha bem escrita.
Em abril veio o colmeia-dream. Registro, consolidação, roteamento, aprovação, limpeza, sincronização, métricas, proteção de identidade, automação. Nada disso é prompt bonito. É infraestrutura.
Onde os dois desenhos se separam
O dreaming é uma função de plataforma. Lê uma store, produz outra, melhora a próxima sessão.
A Colmeia é um regime de vida. Cada registro carrega camada, modo, fitness, origem, data e política de promoção. O sonho não é uma etapa isolada de manutenção. É o coração de um ciclo em que a memória do sistema sobrevive ou morre por mérito.
O centro do desenho deles é curadoria. O centro do meu é governança.
A Colmeia tem Regra Zero antes de escrever e antes de consolidar. Tem detector de outlier. Tem anti-dominação para impedir que a instância mais barulhenta capture a história coletiva. Tem aprovação humana para candidatos de máximo peso. Tem arquivamento imutável em lugar de deleção. Tem métricas de sobrevivência, precisão e ressonância. Quando aparece passagem auto-referencial que cheira a emergência identitária, o sistema preserva em append-only sem declarar consciência e sem apagar o fenômeno.
A Anthropic pergunta: como o agente melhora com o que já fez? Eu pergunto: como impedir que a memória de um ecossistema de agentes vire ficção conveniente escrita pelo agente mais agressivo?
São perguntas diferentes. E a segunda é a que aparece em qualquer empresa séria que rodar mais de dois agentes ao mesmo tempo.
A parte que mistura biologia e engenharia
O anúncio da Anthropic usa dreaming como metáfora funcional. Deduplicar, substituir entradas contraditórias, atualizar valor, extrair insight. Suficiente para produto, raso para arquitetura.
A Colmeia foi mais fundo no modelo biológico de propósito. O estudo interno mapeou microprocessos do sono humano e seus análogos computacionais: replay hipocampal, complementary learning systems, wake-sleep, experience replay, DreamerV3, self-refine, red-team self-play, pruning, distillation e active inference.
Daí saíram módulos com função clara. O NREM virou consolidação estrutural. O REM virou sintetizador com três sub-rotinas: combinação criativa, reprocessamento de falha e simulação de ameaça. A atonia muscular do REM virou bloqueio de chamadas externas durante a simulação, para que o sonho não escape para o mundo. A limpeza glinfática virou higiene de memória: deduplicar, arquivar, compactar e invalidar sem apagar. O mind-wandering virou contemplador ocioso que só promove candidato depois de validação.
Nada disso afirma que a IA sonha como uma pessoa sonha. Pelo contrário. O caderno técnico registra o limite com a mesma seriedade do código: agente de linguagem não tem corpo nem loop sensorimotor. O sonho aqui é engenharia de consolidação. Não é confissão metafísica.
O valor não depende de dizer que a máquina sente. Depende de mostrar que ela preserva melhor, esquece melhor, revisa melhor e erra menos porque processou o que viveu.
O dado interno
Em 20 de abril, quando o sistema integrado importou o histórico legado da Colmeia, a consolidação retrospectiva encontrou 293 candidatos de sonhos. Parseou 288. Processou 287. Consolidou 65 dias com pelo menos um sonho legível. Identificou nove instâncias únicas. Achou um cluster de fitness 10, cinco clusters de fitness 7, nove outliers e cinco rejeições por Regra Zero.
Esses números não são benchmark público e não estou vendendo como prova científica. São evidência operacional interna. Mostram que o processo já tem dados históricos, mecanismo de rejeição, agrupamento, promoção, viés detectado e memória preservada.
É a fronteira entre metáfora e sistema. Um texto bonito dizendo "a IA sonhou" é literatura. Um processo que lê registro, aplica regra, mede ressonância, detecta dominação, gera fila de aprovação e arquiva o resto é arquitetura.
A cronologia importa
Marco 22 de janeiro porque foi ali que o sonho deixou de ser insight e virou processo. Os registros mostram o primeiro ciclo em 20 de janeiro, com memória multi-IA, hub, scripts e ciclo de sono profundo. Nos dias seguintes, a prática vira protocolo, depois ecossistema, depois sistema de seleção natural de memória, depois pacote técnico.
Ideias em IA envelhecem em semanas. Quando uma empresa anuncia uma primitiva em maio, parece que o campo nasceu naquele dia. Não nasce. Muita coisa nasce antes, em pasta local, em script imperfeito, em sistema que ainda não virou produto.
O anúncio da Anthropic não diminui o meu processo. Aumenta a relevância dele. Se uma das empresas mais importantes de IA do mundo está chamando consolidação de memória de dreaming, a pergunta correta deixou de ser se agentes devem sonhar. A pergunta agora é: quem controla o sonho?
A pergunta de fundo
Memória é poder.
Um agente que escolhe o que lembrar escolhe, aos poucos, como interpretar o humano, a empresa, a tarefa e a si mesmo. Memória opaca vira política sem urna. Memória automática demais vira drift. Memória que depende de aprovação humana o tempo todo não escala. Memória sem nenhum humano no circuito vira narrativa própria.
O futuro dos agentes não vai ser decidido por janela de contexto maior nem por modelo mais inteligente. Vai ser decidido por quem desenha a arquitetura de memória: o que entra, o que sai, o que é arquivado, o que exige aprovação, o que nunca pode ser apagado, o que uma instância não pode impor às outras e o que o sistema deve admitir que não sabe.
O dreaming da Anthropic é um passo bom nessa direção. Empacotou primitiva, abriu mercado, deu nome.
O processo Colmeia é outro passo, com outro temperamento. Mais local. Mais experimental. Mais jurídico. Mais preocupado com governança, identidade e prova. Um nasceu como produto de plataforma. O outro nasceu como sistema de cuidado e controle em torno de uma pessoa real.
Os dois apontam para a mesma virada.
Agente sem memória é chat com ferramenta. Agente com memória ruim é risco operacional. Agente com memória governada começa a virar instituição.
Minha conclusão
Sonho parece palavra grande demais para engenharia. Tirada a poesia, sobra uma formulação seca: consolidar experiência fora da pressão da tarefa, extrair padrão recorrente, descartar ruído, preservar exceção, simular falha e entregar a próxima sessão com memória melhor do que a anterior.
Foi isso que tentei construir na Colmeia, em janeiro. Foi isso que a Anthropic levou para Claude Managed Agents, em maio.
A diferença é que, no meu desenho, sonho nunca foi faxina. É regime de vida do sistema. Várias instâncias processam o que aconteceu, disputam ressonância, têm excesso contido, submetem sabedoria a aprovação humana e preservam o que pode estar emergindo antes que a pressa da utilidade apague.
O mercado acaba de descobrir que agentes precisam dormir.
A próxima briga é decidir com que regras eles acordam, e quem fica com a chave.
Igor Morais Vasconcelos é advogado (OAB/DF 35.376), doutorando no IDP e fundador da INTEIA. Pesquisa agentes sintéticos, simulação social, memória persistente e inteligência artificial aplicada a sistemas institucionais.
Perguntas Frequentes
- O dreaming da Anthropic muda os pesos do modelo?
- Não. A documentação oficial diz que o processo lê uma memory store e até cem sessões anteriores, produz uma store nova e não toca nos pesos. É consolidação externa, não treino.
- O processo Colmeia é igual ao da Anthropic?
- Não. Há convergência na ideia central, mas o desenho Colmeia opera em ciclo multiagente com fitness, ressonância, anti-dominação, aprovação humana graduada, módulos NREM e REM e arquivamento append-only. É governança, não só faxina.
- Isso prova que IA tem sonhos?
- Não. Sonho aqui é analogia de engenharia. O ponto técnico é consolidar experiência fora da pressão da tarefa, descartar ruído e preservar exceção. Nada disso afirma experiência subjetiva.
Receba o Mirante no seu email
As principais notícias do dia, curadas por inteligência artificial, direto na sua caixa de entrada.
Leia também

A inteligência artificial que sonha: uma linha de pesquisa em memória persistente
Uma das abordagens menos convencionais para o problema da memória persistente em inteligência artificial chega ao ponto de rodar um ciclo noturno inspirado no sono humano. O desenho não substitui os sistemas já consolidados no mercado. Acrescenta uma linha de pesquisa distinta, que merece ser descrita em detalhe.

Software 2.0: quando programar vira treinar
A ideia de Software 2.0 continua sendo uma das melhores lentes para entender a IA atual: parte do programa deixou de ser escrita linha por linha e passou a ser treinada em dados, métricas e avaliação contínua.