Thanksgivingveckans överraskning: ett episkt samtal om Frontier AI med @lukaszkaiser medförfattare till "Attention Is All You Need" (Transformers) och ledande forskare vid @OpenAI som arbetar med resonemangsmodeller från GPT-5.1-eran. 00:00 – kallöppning och introduktion 01:29 – "AI-avmattning" vs en vild vecka med nya frontier-modeller 08:03 – Lågthängande frukt, infrastruktur, RL-träning och bättre data 11:39 – Vad är en resonemangsmodell, i klart språk. 17:02 – Tankekedja och träning av tankeprocessen med RL 21:39 – Łukasz väg: från logik och Frankrike till Google och Kurzweil 24:20 – Inuti Transformer-berättelsen och vad "uppmärksamhet" egentligen betyder 28:42 – Från Google Brain till OpenAI: kultur, skala och GPU:er 32:49 – Vad händer härnäst för förträning, GPU:er och destillation 37:29 – Kan vi fortfarande förstå dessa modeller? Kretsar, gleshet och svarta lådor 39:42 – GPT-4 → GPT-5 → GPT-5.1: vad som faktiskt förändrades 42:40 – Efter utbildning, säkerhet och undervisning av GPT-5.1 olika toner 46:16 – Hur länge bör GPT-5.1 tänka? Resonerande tokens och taggiga förmågor 47:43 – Femåringens prickpussel som fortfarande bryter gränsmodeller ...