在 @buidl_conf 的「去中心化 AI 的應用」演講名單中看到 Matthew 感覺很合適,因為 @OpenGradient 是少數幾個實際交付這個演講所談論的技術堆疊的團隊,而不僅僅是幻燈片。 如果你放大他們的文檔和關於頁面,畫面就會變得相當清晰:L1 用於開放智能,模型存放在去中心化的模型中心,推理通過 ZK/TEE 來證明,應用/代理運行時具有鏈上可追溯性和內建的加密經濟安全性。 對我來說,這個會議的有趣部分是這些部分如何連接: ❯ memsync_ai → 一個通用記憶層,能夠在助手和應用之間攜帶你的上下文,並以端到端加密 + TEE/MPC 啟動,因此記憶實際上是你的,而不是平台的。 ❯ BitQuantAI → 開源的「個人量化代理」,將自然語言意圖轉化為可驗證的 DeFi 行動,經過 50k+ 用戶的測試,現在已經獲得 MIT 許可,任何人都可以分叉。 把這些放在去中心化的基礎設施下,你就會得到一個相當嚴肅的代理遊樂場,能夠管理風險、調整規模,並記住上下文,而不需要你信任一個黑箱。 如果你在里斯本,這是我會從頭到尾坐下來聽的少數幾個演講之一。