Meta ha appena rilasciato MobileLLM-R1
un modello di ragionamento edge con meno di 1 miliardo di parametri
Incremento delle prestazioni da 2× a 5× rispetto ad altri modelli completamente open-source: MobileLLM-R1 raggiunge un'accuratezza MATH ~5× superiore rispetto a Olmo-1.24B e ~2× rispetto a SmolLM2-1.7B.
Utilizza solo 1/10 dei token di pre-addestramento rispetto a Qwen: eguaglia o supera l'accuratezza di Qwen3 su più benchmark di ragionamento, mentre si allena su soli 4.2T di token (solo l'11.7% dei 36T di Qwen3).