Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Şükran Günü haftası ödülü: "Attention Is All You Need" (Transformers) kitabının ortak yazarı ve GPT-5.1 dönemi akıl yürütme modelleri üzerinde çalışan @OpenAI'nin önde gelen araştırmacı bilimci @lukaszkaiser ile Frontier AI üzerine epik bir sohbet.
00:00 – Soğuk açılış ve giriş
01:29 – "Yapay zeka yavaşlaması" vs yeni sınır modelleriyle dolu çılgın bir hafta
08:03 – Kolay kolay meyve, altyapı, gerçek eğitim ve daha iyi veri
11:39 – Açık dilde akıl yürütme modeli nedir?
17:02 – Düşünce zinciri ve düşünce sürecini RL ile eğitmek
21:39 – Łukasz'ın yolu: mantıktan ve Fransa'dan Google ve Kurzweil'e
24:20 – Transformer hikayesinin içinde ve "dikkat"in gerçekten ne anlama geldiği
28:42 – Google Beyin'den OpenAI'ya: kültür, ölçek ve GPU'lar
32:49 – Ön eğitim, GPU'lar ve damıtma için sırada ne var?
37:29 – Bu modelleri hâlâ anlayabiliyor muyuz? Devreler, seyreklik ve kara kutular
39:42 – GPT-4 → GPT-5 → GPT-5.1: Gerçekten ne değişti
42:40 – Eğitim sonrası GPT-5.1 farklı tonlar ve güvenlik ve öğretim
46:16 – GPT-5.1 ne kadar düşünmeli? Akıl yürütme tokenları ve keskin yetenekler
47:43 – Beş yaşındaki çocuğun sınır modellerini hâlâ aşan nokta bulmacası
...
En İyiler
Sıralama
Takip Listesi

