Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Suguhan minggu Thanksgiving: percakapan epik tentang Frontier AI dengan @lukaszkaiser rekan penulis "Attention Is All You Need" (Transformers) dan ilmuwan peneliti terkemuka di @OpenAI yang mengerjakan model penalaran era GPT-5.1.
00:00 – Buka dingin dan intro
01:29 – "Perlambatan AI" vs minggu liar model perbatasan baru
08:03 – Buah yang menggantung rendah, infra, pelatihan RL, dan data yang lebih baik
11:39 – Apa itu model penalaran, dalam bahasa sederhana
17:02 – Rantai pemikiran dan melatih proses berpikir dengan RL
21:39 – Jalan Łukasz: dari logika dan Prancis ke Google dan Kurzweil
24:20 – Di dalam cerita Transformer dan apa arti "perhatian" sebenarnya
28:42 – Dari Google Brain ke OpenAI: budaya, skala, dan GPU
32:49 – Apa selanjutnya untuk pra-pelatihan, GPU, dan distilasi
37:29 – Apakah kita masih bisa memahami model-model ini? Sirkuit, jarang, dan kotak hitam
39:42 – GPT-4 → GPT-5 → GPT-5.1: apa yang sebenarnya berubah
42:40 – Pasca-pelatihan, keselamatan, dan pengajaran GPT-5.1 nada berbeda
46:16 – Berapa lama GPT-5.1 harus berpikir? Token penalaran dan kemampuan bergerigi
47:43 – Teka-teki titik anak berusia lima tahun yang masih mendobrak model perbatasan
...
Teratas
Peringkat
Favorit

