Suguhan minggu Thanksgiving: percakapan epik tentang Frontier AI dengan @lukaszkaiser rekan penulis "Attention Is All You Need" (Transformers) dan ilmuwan peneliti terkemuka di @OpenAI yang mengerjakan model penalaran era GPT-5.1. 00:00 – Buka dingin dan intro 01:29 – "Perlambatan AI" vs minggu liar model perbatasan baru 08:03 – Buah yang menggantung rendah, infra, pelatihan RL, dan data yang lebih baik 11:39 – Apa itu model penalaran, dalam bahasa sederhana 17:02 – Rantai pemikiran dan melatih proses berpikir dengan RL 21:39 – Jalan Łukasz: dari logika dan Prancis ke Google dan Kurzweil 24:20 – Di dalam cerita Transformer dan apa arti "perhatian" sebenarnya 28:42 – Dari Google Brain ke OpenAI: budaya, skala, dan GPU 32:49 – Apa selanjutnya untuk pra-pelatihan, GPU, dan distilasi 37:29 – Apakah kita masih bisa memahami model-model ini? Sirkuit, jarang, dan kotak hitam 39:42 – GPT-4 → GPT-5 → GPT-5.1: apa yang sebenarnya berubah 42:40 – Pasca-pelatihan, keselamatan, dan pengajaran GPT-5.1 nada berbeda 46:16 – Berapa lama GPT-5.1 harus berpikir? Token penalaran dan kemampuan bergerigi 47:43 – Teka-teki titik anak berusia lima tahun yang masih mendobrak model perbatasan ...