看到Matthew在@buidl_conf的“去中心化AI的应用”演讲阵容中,感觉很合适,@OpenGradient是为数不多的真正交付这个演讲所谈论的技术栈的团队之一,而不仅仅是幻灯片。 如果你放大他们的文档和关于页面,画面就很清晰:L1用于开放智能,模型存放在去中心化的模型中心,推理通过ZK/TEE进行验证,应用/代理在链上可追溯性和加密经济安全的基础上运行。 对我来说,这个会议的有趣部分是各个部分如何连接: ❯ memsync_ai → 通用内存层,能够在助手和应用之间携带你的上下文,采用端到端加密 + TEE/MPC启动,因此内存实际上是你的,而不是平台的。 ❯ BitQuantAI → 开源的“个人量化代理”,将自然语言意图转化为可验证的DeFi行动,经过50k+用户的测试,现在已获得MIT许可,任何人都可以分叉。 把这些放在去中心化基础设施的屋檐下,你就得到了一个相当严肃的代理游乐场,可以管理风险、移动规模,并记住上下文,而不需要你信任一个黑箱。 如果你在里斯本,这是我会从头到尾认真听的少数几场演讲之一。