Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Trattamento della settimana del Ringraziamento: una conversazione epica su Frontier AI con @lukaszkaiser - co-autore di “Attention Is All You Need” (Transformers) e principale ricercatore presso @OpenAI che lavora sui modelli di ragionamento dell'era GPT-5.1.
00:00 – Apertura e introduzione
01:29 – “Rallentamento dell'AI” vs una settimana selvaggia di nuovi modelli di frontiera
08:03 – Frutti a portata di mano, infrastruttura, addestramento RL e dati migliori
11:39 – Cos'è un modello di ragionamento, in parole semplici
17:02 – Catena di pensiero e addestramento del processo di pensiero con RL
21:39 – Il percorso di Łukasz: dalla logica e dalla Francia a Google e Kurzweil
24:20 – Dentro la storia del Transformer e cosa significa davvero “attenzione”
28:42 – Da Google Brain a OpenAI: cultura, scala e GPU
32:49 – Cosa c'è in serbo per il pre-addestramento, GPU e distillazione
37:29 – Possiamo ancora comprendere questi modelli? Circuiti, scarsità e scatole nere
39:42 – GPT-4 → GPT-5 → GPT-5.1: cosa è realmente cambiato
42:40 – Post-addestramento, sicurezza e insegnare a GPT-5.1 toni diversi
46:16 – Quanto tempo dovrebbe pensare GPT-5.1? Token di ragionamento e abilità irregolari
47:43 – Il puzzle dei punti del bambino di cinque anni che continua a rompere i modelli di frontiera
...
Principali
Ranking
Preferiti

