A Frontier AI só parece assustadora porque a maior parte ainda funciona como uma caixa-preta com um logótipo bonito por cima. O que @inference_labs está a fazer com o DSperse + JSTprove é basicamente dizer: “ok, prova isso.” Voltei ao artigo do DSperse onde o descrevem como verificação criptográfica estratégica de subcomputações de alto valor em vez de cosplay de SNARK de modelo completo. Fatias do modelo tornam-se unidades prováveis de forma independente, para que possas bloquear portas de segurança, detectores de anomalias ou cabeçotes privados sem arrastar toda a rede para o inferno do ZK. Por outro lado, o JSTprove mais o repositório de código aberto na sua organização do GitHub oferece-te um pipeline de ponta a ponta no backend do Expander da Polyhedra: alimenta um modelo ONNX, a CLI gera provas e artefatos auditáveis, sem necessidade de um profundo conhecimento em criptografia. ❯ O DSperse decide o que vale a pena provar ❯ O JSTprove trata de como é provado e exposto A maioria das pilhas de “frontier AI” ainda te pede para confiar em benchmarks, não em comportamentos. Esta combinação inverte isso: tu escolhes os modos de falha nos quais te recusas a arriscar, e ligas as provas exatamente lá. Se estás a construir sistemas sérios em robótica, finanças ou no mundo dos agentes, o próximo passo honesto é simples: mapeia o teu modelo de ameaça, depois pergunta quais partes realmente passarias pelo DSperse + JSTprove. Se a resposta for “nenhuma”, ainda não estás realmente a buscar confiança. #zkML