熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
感恩節週的特別節目:與@lukaszkaiser的史詩對話——《注意力即一切》的共同作者(Transformers)及@OpenAI的首席研究科學家,致力於GPT-5.1時代的推理模型。
00:00 – 開場和介紹
01:29 – “AI放緩”與新前沿模型的狂野一週
08:03 – 低垂的果實、基礎設施、強化學習訓練和更好的數據
11:39 – 推理模型是什麼,通俗易懂的解釋
17:02 – 思維鏈和用強化學習訓練思考過程
21:39 – Łukasz的道路:從邏輯和法國到谷歌和庫茲韋爾
24:20 – 變壓器故事的內幕以及“注意力”真正的含義
28:42 – 從谷歌大腦到OpenAI:文化、規模和GPU
32:49 – 預訓練、GPU和蒸餾的下一步是什麼
37:29 – 我們還能理解這些模型嗎?電路、稀疏性和黑箱
39:42 – GPT-4 → GPT-5 → GPT-5.1:實際上改變了什麼
42:40 – 後訓練、安全性和教導GPT-5.1不同語調
46:16 – GPT-5.1應該思考多久?推理標記和不規則能力
47:43 – 五歲小孩的點陣謎題,仍然打破前沿模型
...
熱門
排行
收藏

