感恩節週的特別節目:與@lukaszkaiser的史詩對話——《注意力即一切》的共同作者(Transformers)及@OpenAI的首席研究科學家,致力於GPT-5.1時代的推理模型。 00:00 – 開場和介紹 01:29 – “AI放緩”與新前沿模型的狂野一週 08:03 – 低垂的果實、基礎設施、強化學習訓練和更好的數據 11:39 – 推理模型是什麼,通俗易懂的解釋 17:02 – 思維鏈和用強化學習訓練思考過程 21:39 – Łukasz的道路:從邏輯和法國到谷歌和庫茲韋爾 24:20 – 變壓器故事的內幕以及“注意力”真正的含義 28:42 – 從谷歌大腦到OpenAI:文化、規模和GPU 32:49 – 預訓練、GPU和蒸餾的下一步是什麼 37:29 – 我們還能理解這些模型嗎?電路、稀疏性和黑箱 39:42 – GPT-4 → GPT-5 → GPT-5.1:實際上改變了什麼 42:40 – 後訓練、安全性和教導GPT-5.1不同語調 46:16 – GPT-5.1應該思考多久?推理標記和不規則能力 47:43 – 五歲小孩的點陣謎題,仍然打破前沿模型 ...