Şükran Günü haftası ödülü: "Attention Is All You Need" (Transformers) kitabının ortak yazarı ve GPT-5.1 dönemi akıl yürütme modelleri üzerinde çalışan @OpenAI'nin önde gelen araştırmacı bilimci @lukaszkaiser ile Frontier AI üzerine epik bir sohbet. 00:00 – Soğuk açılış ve giriş 01:29 – "Yapay zeka yavaşlaması" vs yeni sınır modelleriyle dolu çılgın bir hafta 08:03 – Kolay kolay meyve, altyapı, gerçek eğitim ve daha iyi veri 11:39 – Açık dilde akıl yürütme modeli nedir? 17:02 – Düşünce zinciri ve düşünce sürecini RL ile eğitmek 21:39 – Łukasz'ın yolu: mantıktan ve Fransa'dan Google ve Kurzweil'e 24:20 – Transformer hikayesinin içinde ve "dikkat"in gerçekten ne anlama geldiği 28:42 – Google Beyin'den OpenAI'ya: kültür, ölçek ve GPU'lar 32:49 – Ön eğitim, GPU'lar ve damıtma için sırada ne var? 37:29 – Bu modelleri hâlâ anlayabiliyor muyuz? Devreler, seyreklik ve kara kutular 39:42 – GPT-4 → GPT-5 → GPT-5.1: Gerçekten ne değişti 42:40 – Eğitim sonrası GPT-5.1 farklı tonlar ve güvenlik ve öğretim 46:16 – GPT-5.1 ne kadar düşünmeli? Akıl yürütme tokenları ve keskin yetenekler 47:43 – Beş yaşındaki çocuğun sınır modellerini hâlâ aşan nokta bulmacası ...