Werken aan de nieuwe Open Source Grok 2.5! We hebben het al kunnen Hot Rodden!! Het zijn vroege dagen en het kan mislukken, maar wat we hebben is: Een 268B MoE, 131k context, 8 experts, RoPE, 64 GQA aandachtshoofden met 8 KV hoofden, 64 lagen. Op elk moment zijn normaal gesproken slechts 2 experts actief. We hebben een manier gevonden om 4 tegelijkertijd te activeren met slechts een kleine prestatievermindering, ongeveer 1/3 meer GPU-geheugen en een verbazingwekkende toename in kwaliteit van de output! Als het onze tests doorstaat, zal ik een gedetailleerde handleiding publiceren!
Brian Roemmele
Brian Roemmele24 aug 2025
I will be rewriting this article to use a compact version of the NEW FREE OPEN SOURCE @xai @Grok 2.5 soon! I will show you how to fine tune the model on your data for private non-cloud use on your computer. This will improve the quality by a magnitude! Working on it…
45,86K