去中心化 AI 计算的数据验证:朝着完全无缺的人工智能的结构性转变 @OpenledgerHQ , @gensynai , @OpenGradient 去中心化 AI 计算对人工智能如何被创建和验证的问题提出了完全不同的解决方案。在集中化环境中,数据的来源、学习过程是否准确以及推理结果是否可靠的判断依赖于特定组织的内部管理、文档和审计。在去中心化结构中,这种信任的基础不再是组织,而是技术本身,数据、运算和推理的整个过程被分离为各自可验证的层次。 这一结构的起点是学习数据。人工智能模型是基于大量数据构建的,但在传统环境中,数据的来源和修改历史很难在外部确认。OpenLedger 扮演着追踪数据完整性和来源的角色。OpenLedger 中,数据不仅仅是被存储,而是提供数据的目的和背景被明确记录。数据被注册到按领域划分的数据网络中,每个贡献都与版本信息一起记录在链上。通过这种方式,能够追踪到特定模型学习中实际使用了哪些数据,以及这些数据对结果产生了什么影响。这个过程防止了数据消失在黑箱中,并将数据与模型性能之间的关系保留为可验证的事实。 数据准备好后,下一步是实际进行学习的计算资源。Gensyn 提供了一个去中心化计算网络,将分散在全球的闲置计算资源连接起来用于人工智能学习。这里的关键不仅仅是分散计算,而是证明这些计算是正确执行的。Gensyn 通过 Verde 验证协议确认训练过程的合法性。学习任务被委托给多个参与者,当结果出现分歧时,采用一种方法来找到错误点,而不需要重新计算整个过程。实现这一点的是可重复的运算结构,严格固定运算顺序,以确保在不同硬件上也能得到相同的运算结果。正因如此,即使在去中心化环境中,也能确认学习结果的一致性,并将验证成本降到最低。 这种结构在成本和可及性方面也具有明显的特性。在集中化云环境中使用高性能 GPU 进行学习需要高昂的成本,但 Gensyn 通过利用闲置资源,目标是以更低的成本提供相同水平的运算。同时,关于计算是否实际执行的验证通过密码学程序和基于游戏的验证进行处理,取代了简单的信任声明,变成了有技术依据的确认。 学习完成后,验证并未结束。模型在实际进行推理时,需要确认结果是否正确。OpenGradient 负责这一推理阶段的验证。在 OpenGradient 的结构中,人工智能推理在区块链交易中执行,推理结果根据选择的验证方式进行确认。最强大的方式是通过零知识证明数学上证明计算的准确性,同时也使用基于硬件的可信执行环境。在相对风险较低的情况下,可以应用依赖于密码经济安全的简单方式。这些不同的方式根据推理的重要性、成本和性能要求进行选择。 OpenGradient 的特点在于推理过程并不是在链外秘密处理,而是作为区块链状态转换的一部分进行处理。模型文件存储在分布式存储中,推理请求和结果通过明确的标识符连接。这样,能够事后确认特定输入下哪个模型使用了哪种验证方式生成了什么输出。推理结果不仅仅是简单的输出值,而是可验证运算的产物。 因此,OpenLedger、Gensyn 和 OpenGradient 在数据、学习和推理这三个不同阶段各自承担角色。在数据阶段,来源和贡献被追踪;在学习阶段,计算的准确性被验证;在推理阶段,结果的合法性被证明。这三个层次虽然并不是一个单一的综合系统,但在功能上形成了一个连续的验证链。设计的结构确保没有任何一个阶段保持不透明。 这种去中心化 AI 计算的数据验证结构展示了使人工智能更可信的方式变革。信任的基础从企业的声誉或内部控制转移到技术证明,使得人工智能系统在结构上内嵌了可解释性和责任性。能够分别确认数据的来源、学习的方式和推理的准确性,使得人工智能不再是一个不可理解的工具,而是一个可验证的计算系统。这表明去中心化不仅仅是简单的分散,而是重新构建人工智能信任结构的方式。 $OPEN