Robotik stöter ständigt på samma vägg. En enda uppgift i verkligheten funkar, men... Det skalar inte till hundratals uppgifter eller nya gestaltningar. Den här nya artikeln verkar vara ett verkligt steg mot att åtgärda det. Teamet introducerar MMBench, en benchmark med 200 uppgifter inom många domäner och robotar, samt Newt, en språkbetingad världsmodell som tränas online över alla 200 uppgifter samtidigt. Den enkla idén bakom Newt: Modellen lär sig från demos för att få rätt priors Den tränar över många uppgifter genom onlineinteraktion Den använder språk för att förankra målet Den anpassar sig snabbt när en ny uppgift dyker upp Det som stack ut för mig: ✅ En modell tränades på 200 uppgifter samtidigt ✅ Språkbetingad kontroll för både tillstånd och RGB ✅ Bättre dataeffektivitet än starka baslinjer ✅ Stark öppen loop-styrning ✅ Snabb anpassning till nya uppgifter och gestaltningar ✅ Fullständig version av 200 checkpoints, 4000 demos, kod och benchmark Detta är ett bra steg mot allmän kontroll istället för en modell per uppgift. Om du vill ha hela artikeln: Projektsida: —-...