2025年末はDeepProveにとって大きな転換点となり、単一ノードの証明から分散型GPU加速型zkMLシステムへと進化しました。 以下のリンクから完全なエンジニアリングアップデートをお読みください: 🧵
2/ DeepProveは分散実行グラフを中心に再構築しました。 モノリシックな証明機の代わりに、証明ロジックは機械間で分割し同時に実行できる並列化可能な部分グラフとして表現されるようになりました。 これにより、証明生成のための水平スケーリングが解放されます。
3/ 線形代数は今やエインサム優先です。 濃い射影やQKV射影を含むすべての線形層は、任意のテンソルランクを支える明示的なエインサムの定式化の下で統一されていました。 その結果、よりシンプルなコードベース、より少ないオーダーメイドレイヤー、そして将来のモデルアーキテクチャに対する柔軟性が高まりました。
4/ 主要なボトルネックである非線形レイヤーを解決し、softmax、ReLU、GELU、レイヤーノルムなどを扱う単一の一般化ルックアップレイヤーを導入し、リクオンタイズも組み込んでいます。 つまり、レイヤー数が少なくて、オーバーヘッドも少なく、パフォーマンスも良くなるということです。
5/ パフォーマンススケールで評価された精度。 PyTorch FP32と比較して: ・GPT-2は<1%のパープレクシティ・デルタを示します ・Gemma-3は~4%のパープレクシティ・デルタを示します DeepProveは、より高度な最適化下でも高い数値忠実度を維持します。
6/ Inferenceは現在キャッシュ対応かつGPUネイティブです。 私たちは次のように付け加えました: • 長距離列の位置キャッシュ ・K/V再利用のためのテンソル連結キャッシュ すべてのレイヤーがGPU上で動作し、楽観的証明が可能になりました。結果は即座に返却し、証明は非同期で追随します。
7/ スループットは重要な節目に達しました。 エンドツーエンドのボトルネック解析と最適化を経て、DeepProveは現在、1秒あたり約1.5件の証明を維持しています。 これにより、zkMLがオフラインやバッチワークロードだけでなく、実用的な推論に追いつけることが証明されます。
8/要約:DR: 2025年第4四半期にDeepProveは新たなレベルの本物規模アーキテクチャへと進みました。 分散証明、GPU実行、楽観的証明、持続的なスループットは今や現実的かつスケーラブルであり、検証可能なAIの基盤を提供しています。 さらに続きを近日中にお届けします。
413