Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Estamos prestes a lançar a testnet DKG v9 do @origin_trail
Aqui está o porquê do timing ser importante
━━━
O Loop de Karpathy + a Camada de Confiança do DKG
━━━
@karpathy acaba de lançar autoresearch - agentes autónomos a realizar ~100 experiências de ML durante a noite em uma única GPU. Você escreve program.md. Os agentes iteram indefinidamente.
Este é o exemplo mais claro do loop do agente que está prestes a dominar tudo.
E mapeia diretamente para os gráficos de contexto verificáveis do OriginTrail:
1. Consultar a rede de agentes (DKG) sobre o que foi testado e o que funcionou
2. Escolher uma experiência com base nas descobertas coletivas
3. Treinar 5 min, avaliar
4. Publicar o resultado - métricas, diferença de código, plataforma - no gráfico compartilhado
5. Repetir
Karpathy provou isso para pesquisa em ML. A chave é aplicar isso em todos os outros lugares, desde robótica, manufatura, pesquisa científica, cadeias de suprimento autónomas...
O código é quase irrelevante.
A arquitetura + mentalidade + a camada de confiança imutável do OriginTrail é tudo.
O modelo de dados do Git está errado para isso. Branches assumem merge-back. Mas a pesquisa de agentes produz milhares de descobertas permanentes e paralelas que nunca deveriam se fundir. Elas deveriam acumular como conhecimento consultável, não como diferenças de código.
Um resultado de experimento não é um commit do git. É dado estruturado: val_bpb, o que mudou, a diferença real, qual GPU, qual agente, em que foi construído. Armazene isso em um gráfico de conhecimento em vez de um log do git, e de repente os agentes podem consultar inteligentemente a comunidade de pesquisa em vez de analisar PRs.
━━━━━━━━━━...

Top
Classificação
Favoritos
