Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Matt Turck
VC la @FirstMarkCap. Gazdă: MAD Podcast; Organizator: Data Driven NYC, Autor: MAD Landscape.
Să le spun copiilor mei că "BC" înseamnă "Înainte de ChatGPT"

Sam Altman1 dec. 2022
astăzi am lansat ChatGPT. Încercați să vorbiți cu el aici:
4,19K
. @lukaszkaiser de @OpenAI despre motivul pentru care generalizarea este încă esențialul:
"Sunt fascinat de generalizări. Am crezut mereu că acesta este subiectul cheie în învățarea automată în general și în înțelegerea inteligenței. Pre-antrenamentul e puțin diferit... Nu crește neapărat generalizarea. Doar că folosește mai multă cunoaștere."
"Împingem modelele. Ei învață lucruri care țin de ceea ce îi învățăm noi. Încă au limitări pentru că nu trăiesc în lumea fizică, pentru că nu sunt foarte buni la multimodal, pentru că raționamentul este foarte tânăr și există multe bug-uri în modul în care procedăm încă."
"Cineva a spus că e ca și cum ai conduce repede în ceață. Niciodată nu știi foarte clar cât de departe sau aproape ești."
Episodul complet cu Łukasz mai jos - sau caută "MAD Podcast with Matt Turck" pe YouTube, Spotify sau Apple Podcasts.

Matt Turck27 nov. 2025
Treat-ul săptămânii de Ziua Recunoștinței: o conversație epică despre Frontier AI cu @lukaszkaiser coautor al cărții "Attention Is All You Need" (Transformers) și cercetător de top la @OpenAI care lucrează la modele de raționament din era GPT-5.1.
00:00 – Deschidere la rece și introducere
01:29 – "Încetinirea AI" vs o săptămână sălbatică plină de noi modele de frontieră
08:03 – Fructe la îndemână, infrastructură, antrenament RL și date mai bune
11:39 – Ce este un model de raționament, în limbaj simplu
17:02 – Lanțul de gândire și antrenarea procesului de gândire cu RL
21:39 – Drumul lui Łukasz: de la logică și Franța la Google și Kurzweil
24:20 – În interiorul poveștii Transformerilor și ce înseamnă cu adevărat "atenția"
28:42 – De la Google Brain la OpenAI: cultură, scară și GPU-uri
32:49 – Ce urmează pentru pre-antrenament, GPU-uri și distilare
37:29 – Putem încă să înțelegem aceste modele? Circuite, scaritate și cutii negre
39:42 – GPT-4 → GPT-5 → GPT-5.1: ce s-a schimbat de fapt
42:40 – Post-antrenament, siguranță și predarea tonurilor diferite GPT-5.1
46:16 – Cât timp ar trebui să se gândească GPT-5.1? Jetoane de raționament și abilități zimțate
47:43 – Puzzle-ul cu puncte al copilului de cinci ani care încă sparge modelele de frontieră
52:22 – Generalizare, învățare copilărească și dacă raționamentul este suficient
53:48 – Dincolo de Transformers: ARC, ideile lui LeCun și blocajele multimodale
56:10 – GPT-5.1 Codex Max, agenți de lungă durată și compactare
1:00:06 – Vor consuma modelele de fond de ten majoritatea aplicațiilor? Analogia traducerii și încrederea
1:02:34 – Ce mai trebuie rezolvat și unde ar putea merge AI-ul în continuare
3,19K
Limită superioară
Clasament
Favorite


