Robotikk støter stadig på samme vegg. Enkeltoppgave i virkeligheten fungerer, men... det skalerer ikke til hundrevis av oppgaver eller nye legemliggjøringer. Denne nye artikkelen ser ut til å være et reelt steg mot å fikse dette. Teamet introduserer MMBench, en benchmark med 200 oppgaver på tvers av mange domener og roboter, og Newt, en språkbetinget verdensmodell som trenes online på alle 200 oppgaver samtidig. Den enkle ideen bak Newt: Modellen lærer fra demoer for å få riktige forhåndsvurderinger Den trener på tvers av mange oppgaver gjennom nettbasert interaksjon Den bruker språk for å forankre målet Den tilpasser seg raskt når en ny oppgave dukker opp Det som skilte seg ut for meg: ✅ En modell trente på 200 oppgaver samtidig ✅ Språkbetinget kontroll for både tilstander og RGB ✅ Bedre dataeffektivitet enn sterke baselines ✅ Sterk åpen sløyfe-kontroll ✅ Rask tilpasning til nye oppgaver og legemliggjøringer ✅ Full utgivelse av 200 sjekkpunkter, 4000 demoer, kode og benchmark Dette er et godt skritt mot generell kontroll i stedet for én modell per oppgave. Hvis du vil ha hele artikkelen: Prosjektside: —-...