Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
La fin de 2025 a marqué un tournant majeur pour DeepProve, faisant évoluer le système de preuve d'un prouveur à nœud unique vers un système zkML distribué et accéléré par GPU, conçu pour des charges de travail d'inférence dans le monde réel.
Lisez la mise à jour complète de l'ingénierie au lien ci-dessous : 🧵

2/ Nous avons réarchitecturé DeepProve autour d'un graphe d'exécution distribué.
Au lieu d'un prouveur monolithique, la logique de preuve est désormais exprimée sous forme de sous-graphes parallélisables qui peuvent être répartis sur plusieurs machines et exécutés simultanément.
Cela permet une mise à l'échelle horizontale pour la génération de preuves.
3/ L'algèbre linéaire est désormais axée sur einsum.
Tous les couches linéaires, y compris les couches denses et les projections QKV, ont été unifiées sous des formulations einsum explicites, prenant en charge des rangs de tenseurs arbitraires.
Le résultat : une base de code plus simple, moins de couches sur mesure et plus de flexibilité pour les futures architectures de modèles.
4/ Nous avons résolu un goulot d'étranglement majeur, les couches non linéaires, en introduisant une seule couche de recherche généralisée qui gère softmax, ReLU, GELU, la normalisation de couche, et plus encore, avec une requantification intégrée.
Autrement dit, moins de couches, moins de surcharge, et de meilleures performances.
5/ La précision a été maintenue à mesure que la performance a augmenté.
Comparé à PyTorch FP32 :
• GPT-2 montre un delta de perplexité <1%
• Gemma-3 montre un delta de perplexité d'environ 4%
DeepProve maintient une haute fidélité numérique même sous une optimisation plus lourde.
6/ L'inférence est désormais optimisée pour le cache et native sur GPU.
Nous avons ajouté :
• Des caches positionnels pour de longues séquences
• Des caches de concaténation de tenseurs pour la réutilisation K/V
Tous les niveaux s'exécutent désormais sur GPU, permettant une preuve optimiste : les résultats sont retournés immédiatement, les preuves suivent de manière asynchrone.
7/ Le débit a atteint une étape clé.
Après une analyse et une optimisation des goulets d'étranglement de bout en bout, DeepProve maintient désormais ~1,5 preuves par seconde.
Cela valide que le zkML peut suivre le rythme de l'inférence pratique, pas seulement des charges de travail hors ligne ou par lots.
8/ TL;DR : Le quatrième trimestre de 2025 a propulsé DeepProve vers un nouveau niveau d'architecture à l'échelle de la production.
La preuve distribuée, l'exécution GPU, les preuves optimistes et le débit soutenu sont désormais réels et évolutifs, fournissant les bases nécessaires pour une IA vérifiable.
D'autres informations à venir bientôt.
413
Meilleurs
Classement
Favoris
