Trattamento della settimana del Ringraziamento: una conversazione epica su Frontier AI con @lukaszkaiser - co-autore di “Attention Is All You Need” (Transformers) e principale ricercatore presso @OpenAI che lavora sui modelli di ragionamento dell'era GPT-5.1. 00:00 – Apertura e introduzione 01:29 – “Rallentamento dell'AI” vs una settimana selvaggia di nuovi modelli di frontiera 08:03 – Frutti a portata di mano, infrastruttura, addestramento RL e dati migliori 11:39 – Cos'è un modello di ragionamento, in parole semplici 17:02 – Catena di pensiero e addestramento del processo di pensiero con RL 21:39 – Il percorso di Łukasz: dalla logica e dalla Francia a Google e Kurzweil 24:20 – Dentro la storia del Transformer e cosa significa davvero “attenzione” 28:42 – Da Google Brain a OpenAI: cultura, scala e GPU 32:49 – Cosa c'è in serbo per il pre-addestramento, GPU e distillazione 37:29 – Possiamo ancora comprendere questi modelli? Circuiti, scarsità e scatole nere 39:42 – GPT-4 → GPT-5 → GPT-5.1: cosa è realmente cambiato 42:40 – Post-addestramento, sicurezza e insegnare a GPT-5.1 toni diversi 46:16 – Quanto tempo dovrebbe pensare GPT-5.1? Token di ragionamento e abilità irregolari 47:43 – Il puzzle dei punti del bambino di cinque anni che continua a rompere i modelli di frontiera ...