为什么 AI 需要信任、核能和加密原生代理 在本期 DROPS 中,我与 Ben Frigon 坐下来讨论为什么 AI 可能很快会自动化你生活中的大部分内容,但前提是我们必须同时解决三个难题:信任、能源和基础设施。从核能和数据所有权到在你睡觉时移动资金的 AI 代理,@ben_frigon 勾勒出一个既雄心勃勃又奇异实用的未来。 从 DeFi 夏季到 @TalusNetwork Ben 的故事始于布朗大学的 DeFi 夏季,当时以太坊和早期 DeFi 应用如火如荼。他成为区块链俱乐部的主席,并共同设计了他所称的“任何大学中关于 NFT 的第一门学分课程”,正是在 NFT 狂热的顶峰时期教授的。 毕业后,他加入了加密风险投资公司 Distributed Global,花时间“研究你能想到的每一个加密领域。”这种强烈的好奇心是他认为优秀创始人和优秀投资者真正共享的少数特质之一。 转折点出现在他遇到他的联合创始人 Mike 时,后者正在 Polychain 的孵化中。@polychain 和 @SuiNetwork 后来支持了 Talus Network,Ben 从投资者转变为运营者。作为创始人,他表示:“你需要非常非常乐观,几乎是天真、愚蠢的乐观,”而风险投资者的工作是想象每一种可能的失败方式。生活在这两种角色中帮助他雄心勃勃地构建,但又有现实的风险意识。 是否存在 AI 泡沫? 当被问及我们是否处于 AI 泡沫中时,Ben 说:“我认为没有 AI 泡沫。我认为倍数可能会下降,但泡沫意味着投资是浪费。我认为相对于我们拥有的机会,这并不是浪费。”他表示,真正的问题在于 AI 不符合经典的风险投资经济学。 训练竞争模型意味着在第一天就需要巨额的硬件支出,这与风险投资所设计资助的“车库里的两个人”的故事正好相反。这就是为什么许多进展发生在拥有深厚资产负债表的大型科技公司内部。 对 Ben 来说,正确的框架胜过财务。“这对世界的好处是我们从未见过的。”如果我们做对了,AI 将改变我们的工作、学习、决策甚至彼此之间的关系。但这种上行空间只有在我们直面两个重大风险时才有意义。 重大风险:错误的模型和能源不足 第一个风险是模型设计。今天的大型语言模型令人印象深刻,但却很狭窄:在文本处理上表现出色,但在时间序列推理和交易或机器人等具体任务上表现较弱。Ben 认为,如果我们希望代理能够处理现实世界的复杂性,我们最终需要“世界模型”,这些模型的学习方式更像人类。如果我们继续锁定在当前的 LLM 范式中,华丽的演示可能会在我们达到人们梦寐以求的用例之前就停滞不前。 第二个风险是能源。训练和运行前沿模型极其耗电,而数据中心聚集的地方电网已经承受着压力。Ben 在这里直言不讳:美国需要“核新政”。现代小型模块化反应堆更安全、更便宜,但围绕它们的燃料、供应链和专业知识已经枯萎。他认为,重建这些应该是国内的首要任务:“如果美国认真对待实现 AI 的全部潜力,就没有其他选择,只有核能。” 为什么 AI 和区块链实际上是契合的 很容易将“AI + 加密”视为营销,但 Ben 将交集分为三个清晰的层次:计算、数据和代理。 ...