Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
O final de 2025 marcou um ponto de inflexão importante para o DeepProve, que avançou o sistema de provação de um provador de nó único para um sistema zkML distribuído, acelerado por GPU, projetado para cargas de trabalho de inferência do mundo real.
Leia a atualização completa de engenharia no link abaixo: 🧵

2/ Rearquitetamos o DeepProve em torno de um grafo de execução distribuído.
Em vez de um provador monolítico, a lógica de prova agora é expressa como subgrafos paralelizáveis que podem ser divididos entre máquinas e executados simultaneamente.
Isso desbloqueia escalonamento horizontal para geração de provas.
3/ A álgebra linear agora é einsum-first.
Todas as camadas lineares, incluindo projeções densas e QKV, foram unificadas sob formulações explícitas de einsum, suportando ranks tensoriais arbitrários.
O resultado: uma base de código mais simples, menos camadas personalizadas e mais flexibilidade para futuras arquiteturas de modelos.
4/ Corrigimos um grande gargalo, camadas não lineares, introduzindo uma única camada de Pesquisa generalizada que lida com softmax, ReLU, GELU, norma de camada e mais, com requantização embutida.
Ou seja, menos camadas, menos overhead e melhor desempenho.
5/ A precisão se manteve conforme o desempenho foi avaliado.
Comparado ao PyTorch FP32:
• GPT-2 mostra <1% de delta de perplexidade
• Gemma-3 apresenta um delta de perplexidade de ~4%
O DeepProve mantém alta fidelidade numérica mesmo sob otimização mais pesada.
6/ Inference agora é compatível com cache e nativo de GPU.
Acrescentamos:
• Caches posicionais para sequências longas
• Caches de concatenação tensorial para reutilização de K/V
Todas as camadas agora rodam em GPU, permitindo provas otimistas: os resultados retornam imediatamente, as provas seguem de forma assíncrona.
7/ O throughput atingiu um marco importante.
Após análise e otimização de gargalo de ponta a ponta, o DeepProve agora mantém ~1,5 provas por segundo.
Isso valida que o zkML consegue acompanhar a inferência prática, não apenas com cargas offline ou em lote.
8/ Resumo; DR: O quarto trimestre de 2025 elevou o DeepProve a um novo nível de arquitetura em escala de produção.
Provas distribuídas, execução por GPU, provas otimistas e throughput sustentado agora são reais e escaláveis, fornecendo as bases necessárias para uma IA verificável.
Mais novidades em breve.
423
Melhores
Classificação
Favoritos
