Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Thanksgivingveckans överraskning: ett episkt samtal om Frontier AI med @lukaszkaiser medförfattare till "Attention Is All You Need" (Transformers) och ledande forskare vid @OpenAI som arbetar med resonemangsmodeller från GPT-5.1-eran.
00:00 – kallöppning och introduktion
01:29 – "AI-avmattning" vs en vild vecka med nya frontier-modeller
08:03 – Lågthängande frukt, infrastruktur, RL-träning och bättre data
11:39 – Vad är en resonemangsmodell, i klart språk.
17:02 – Tankekedja och träning av tankeprocessen med RL
21:39 – Łukasz väg: från logik och Frankrike till Google och Kurzweil
24:20 – Inuti Transformer-berättelsen och vad "uppmärksamhet" egentligen betyder
28:42 – Från Google Brain till OpenAI: kultur, skala och GPU:er
32:49 – Vad händer härnäst för förträning, GPU:er och destillation
37:29 – Kan vi fortfarande förstå dessa modeller? Kretsar, gleshet och svarta lådor
39:42 – GPT-4 → GPT-5 → GPT-5.1: vad som faktiskt förändrades
42:40 – Efter utbildning, säkerhet och undervisning av GPT-5.1 olika toner
46:16 – Hur länge bör GPT-5.1 tänka? Resonerande tokens och taggiga förmågor
47:43 – Femåringens prickpussel som fortfarande bryter gränsmodeller
...
Topp
Rankning
Favoriter

