Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Thanksgiving-ukens godbit: en episk samtale om Frontier AI med @lukaszkaiser medforfatter av "Attention Is All You Need" (Transformers) og ledende forsker ved @OpenAI som jobber med resonnementsmodeller fra GPT-5.1-æraen.
00:00 – Kald åpning og intro
01:29 – «AI-nedgang» vs en vill uke med nye frontier-modeller
08:03 – Lavthengende frukter, infrastruktur, RL-trening og bedre data
11:39 – Hva er en resonnementsmodell, i klart språk
17:02 – Tankekjede og trening av tankeprosessen med RL
21:39 – Łukasz' vei: fra logikk og Frankrike til Google og Kurzweil
24:20 – Inne i Transformer-historien og hva «oppmerksomhet» egentlig betyr
28:42 – Fra Google Brain til OpenAI: kultur, skala og GPU-er
32:49 – Hva er neste for fortrening, GPU-er og destillasjon
37:29 – Kan vi fortsatt forstå disse modellene? Kretser, sparsomhet og svarte bokser
39:42 – GPT-4 → GPT-5 → GPT-5.1: hva som faktisk endret seg
42:40 – Etter opplæring, sikkerhet og undervisning av GPT-5.1 ulike toner
46:16 – Hvor lenge bør GPT-5.1 tenke? Resonnement-tokens og tagged abilities
47:43 – Femåringens prikkpuslespill som fortsatt bryter grensemodellene
...
Topp
Rangering
Favoritter

