Estamos prestes a lançar a testnet DKG v9 do @origin_trail Aqui está o porquê do timing ser importante ━━━ O Loop de Karpathy + a Camada de Confiança do DKG ━━━ @karpathy acaba de lançar autoresearch - agentes autónomos a realizar ~100 experiências de ML durante a noite em uma única GPU. Você escreve program.md. Os agentes iteram indefinidamente. Este é o exemplo mais claro do loop do agente que está prestes a dominar tudo. E mapeia diretamente para os gráficos de contexto verificáveis do OriginTrail: 1. Consultar a rede de agentes (DKG) sobre o que foi testado e o que funcionou 2. Escolher uma experiência com base nas descobertas coletivas 3. Treinar 5 min, avaliar 4. Publicar o resultado - métricas, diferença de código, plataforma - no gráfico compartilhado 5. Repetir Karpathy provou isso para pesquisa em ML. A chave é aplicar isso em todos os outros lugares, desde robótica, manufatura, pesquisa científica, cadeias de suprimento autónomas... O código é quase irrelevante. A arquitetura + mentalidade + a camada de confiança imutável do OriginTrail é tudo. O modelo de dados do Git está errado para isso. Branches assumem merge-back. Mas a pesquisa de agentes produz milhares de descobertas permanentes e paralelas que nunca deveriam se fundir. Elas deveriam acumular como conhecimento consultável, não como diferenças de código. Um resultado de experimento não é um commit do git. É dado estruturado: val_bpb, o que mudou, a diferença real, qual GPU, qual agente, em que foi construído. Armazene isso em um gráfico de conhecimento em vez de um log do git, e de repente os agentes podem consultar inteligentemente a comunidade de pesquisa em vez de analisar PRs. ━━━━━━━━━━...