跳转至主要内容
行情
扫链
追踪
信号
跟单
兑换
资产
邀请计划
更多
产品
DeFi
市场
洞察中心
Eco Hub
安全中心
开发者中心
X Layer
探索 X Layer
X Layer 浏览器
跨链桥
开发者文档
测试网水龙头
GitHub
Wallet API
探索 Wallet API
API 文档
API Key 管理
区块链浏览器
DApp 连接钱包
Boost
X Launch
参与 X Launch,抢先赚新币
X Campaign
参与活动,赢取丰厚奖励
奖励中心
领取奖励和空投
预警
语言
货币
颜色设置
下载 OKX Wallet
Web3 指南
公告
返回
简体中文
繁體中文
English
Tiếng Việt
Русский
Español (Latinoamérica)
Bahasa Indonesia
Français
Deutsch
Italiano
Polski
Čeština
Română
Português (Portugal)
Português (Brasil)
Українська
Español (España)
Nederlands
العربية
日本語
Norsk (bokmål)
Suomi
Svenska
Türkçe
返回
返回
学院
帮助中心
发现功能使用指南
热门话题
#
Bonk 生态迷因币展现强韧势头
Hosico
-19.24%
USELESS
-11.99%
IKUN
-13.01%
gib
-17.53%
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
Bonk
-6.1%
ALON
-9.57%
LAUNCHCOIN
+6.97%
GOONC
-0.32%
KLED
+2.92%
#
Solana 新代币发射平台 Boop.Fun 风头正劲
BOOP
-1.56%
Boopa
-2.9%
PORK
-1.44%
主页
Andrej Karpathy
建筑@EurekaLabsAI。曾任人工智能总监@特斯拉,创始团队@OpenAI,CS231n/博士@斯坦福大学。我喜欢训练大型深度神经网络。
查看原文
Andrej Karpathy
16 小时前
快速新帖:用后见之明自动评分十年前的黑客新闻讨论 我收集了2015年12月930篇首页黑客新闻文章和讨论,并要求GPT 5.1思维API进行后见之明分析,以识别最具洞察力和最缺乏洞察力的评论。这花费了大约3小时来编写代码,约1小时和60美元来运行。这个想法是受到昨天HN文章的启发,其中要求Gemini 3想象十年后的HN首页。 更一般地说: 1. 后见之明分析一直让我着迷,作为训练前瞻性预测模型的一种方式,因此阅读结果真的很有趣; 2. 值得思考的是,当未来的LLM超级智能能够以更便宜、更快和更好的方式完成这种工作时,会是什么样子。你在互联网上贡献的每一条信息都可能(并且很可能会)被详细审查,如果它是“免费的”。因此,我之前的推文也提到过 - “要做好,未来的LLM在观察”。 恭喜前10名账户pcwalton、tptacek、paulmd、cstross、greglindahl、moxie、hannob、0xcde4c3db、Manishearth和johncolanduoni - GPT 5.1思维认为你们的评论是2015年12月HN所有评论中最具洞察力和前瞻性的。 链接: - 我博客文章中有更多细节 - 如果你想参与,项目的GitHub仓库 - 供你阅读的实际结果页面
43.05K
748
Andrej Karpathy
12月9日 11:40
在今天的编程恐怖故事中…… 在 Python 文档的 random.seed() 定义中,我们被告知 "如果 a 是一个整数,它将被直接使用。" [1] 但是如果你用 3 或 -3 作为种子,你实际上会得到完全相同的 rng 对象,产生相同的流。(今天学到了)。在 nanochat 中,我使用符号作为(我认为是)获取不同 rng 序列的巧妙方法,用于训练/测试拆分。因此出现了棘手的错误,因为现在 train=test。 我在 cpython/Modules/_randommodule.c [2] 中找到了负责的 CPython 代码,在第 321 行我们看到注释: "这个算法依赖于数字是无符号的。所以:如果参数是 PyLong,使用它的绝对值。" 然后是 n = PyNumber_Absolute(arg); 这显式地对你的种子调用 abs() 使其为正,丢弃符号位。 但这个评论实际上也是错误的/误导性的。在底层,Python 调用的是梅森旋转算法 MT19937,该算法在一般情况下有 19937(非零)位状态。Python 将你的整数(或其他对象)信息 "分散" 到这些位中。原则上,符号位本可以用来增强状态位。这个算法并没有什么 "依赖于数字是无符号的"。做出了不包含符号位的决定(在我看来这是一个错误)。一个简单的例子可以是将 n 映射为 2*abs(n) + int(n < 0)。 最后,这引出了 Python 的 random 合同,这在文档中也没有完全说明。提到的合同是: 相同的种子 => 相同的序列。 但没有保证不同的种子会产生不同的序列。因此原则上,Python 并没有承诺例如 seed(5) 和 seed(6) 是不同的 rng 流。(尽管在许多应用中通常隐含地假设这一点。)实际上,我们看到 seed(5) 和 seed(-5) 是相同的流。你可能不应该使用它们来区分机器学习中的训练/测试行为。这是我最近遇到的更有趣的编程恐怖故事之一。下次再见。 [1] [2]
570.65K
5.9K
Andrej Karpathy
12月8日 02:13
不要把大型语言模型(LLMs)视为实体,而是视为模拟器。例如,在探索一个主题时,不要问: “你对xyz有什么看法?” 这里没有“你”。下次试试: “探索xyz的好团队是什么样的?他们会说些什么?” 大型语言模型可以传达/模拟许多观点,但它并没有“思考”xyz很长时间,也没有像我们习惯的那样形成自己的观点。如果你通过使用“你”来强迫它,它会通过采用其微调数据统计所暗示的人格嵌入向量来给出某种回应,然后进行模拟。这是可以的,但我发现人们天真地归因于“询问AI”的神秘感要少得多。
400.27K
8.79K
热门
排行
收藏