Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Alex Cheema - e/acc
De har till och med ändrat namnet på klistermärket för tidig åtkomst.
Det är kreativt ngl



Eito Miyamura | 🇯🇵🇬🇧19 okt. 2025
Påpeka dåligt beteende av @_rexliu från @gen_analysis på LinkedIn - amatörmässig AI Image Edit för att stjäla någon annans inlägg och göra anspråk på det för sig själva
För två dagar sedan släppte vänner på @exolabs ett fantastiskt inlägg med @nvidia + @Apple och använda både hårdvara för att snabba upp LLM:er på enheten.
Och sedan såg jag ett inlägg på LI av @_rexliu, som hävdade att de "bara finjusterade gpt-oss-120B (QLoRA 4-bitars) på en DGX Spark ..." (se skärmdumpar). Superbekant uppställning, slående likt bord, slående likt växt i bakgrunden, anmärkningsvärt lika kabelplaceringar. Och inget enhets-ID från NVIDIA under klistermärket. (amatörmässigt misstag)
Ja.... De här killarna såg definitivt @alexocheema inlägg om LI bli viralt, stal inläggets bild och AI-redigerade det, så de kan stjäla lite oförtjänt beröm för att köra dessa coola innovationer. (Och inga krediter att @exolabs)
Dessa typer av AI-bildredigeringar för att stjäla kredit kommer att bli allt enklare och vanligare nu. Var försiktig där ute.

8,92K
lol ai copycat innehåll är den nya meta?

Eito Miyamura | 🇯🇵🇬🇧19 okt. 2025
Påpeka dåligt beteende av @_rexliu från @gen_analysis på LinkedIn - amatörmässig AI Image Edit för att stjäla någon annans inlägg och göra anspråk på det för sig själva
För två dagar sedan släppte vänner på @exolabs ett fantastiskt inlägg med @nvidia + @Apple och använda både hårdvara för att snabba upp LLM:er på enheten.
Och sedan såg jag ett inlägg på LI av @_rexliu, som hävdade att de "bara finjusterade gpt-oss-120B (QLoRA 4-bitars) på en DGX Spark ..." (se skärmdumpar). Superbekant uppställning, slående likt bord, slående likt växt i bakgrunden, anmärkningsvärt lika kabelplaceringar. Och inget enhets-ID från NVIDIA under klistermärket. (amatörmässigt misstag)
Ja.... De här killarna såg definitivt @alexocheema inlägg om LI bli viralt, stal inläggets bild och AI-redigerade det, så de kan stjäla lite oförtjänt beröm för att köra dessa coola innovationer. (Och inga krediter att @exolabs)
Dessa typer av AI-bildredigeringar för att stjäla kredit kommer att bli allt enklare och vanligare nu. Var försiktig där ute.
@garrytan du har ett dåligt beteende i dina YC-kohorter.

352
NVIDIA skickade oss 2 DGX Sparks.
Ett tag funderade vi på vad vi skulle göra med dem.
Minnesbandbredden är 273 GB/s, vilket gör den 3 gånger långsammare än en M3 Ultra (819 GB/s) för batch_size=1 inferens. Men den har 4 gånger fler FLOPS (100 TFLOPS jämfört med 26 TFLOPS).
Så vi tänkte, tänk om vi kunde kombinera DGX Spark och M3 Ultra och använda både den massiva beräkningskapaciteten på DGX Spark och den massiva minnesbandbredden på M3 Ultra.
Vi kom på ett sätt att dela upp inferensen mellan båda enheterna och uppnå en hastighet på upp till 4x för långa uppmaningar jämfört med M3 Ultra på egen hand.
Fullständig information finns i blogginlägget som länkas nedan.

EXO Labs16 okt. 2025
Clustering NVIDIA DGX Spark + M3 Ultra Mac Studio for 4x faster LLM inference.
DGX Spark: 128GB @ 273GB/s, 100 TFLOPS (fp16), $3,999
M3 Ultra: 256GB @ 819GB/s, 26 TFLOPS (fp16), $5,599
The DGX Spark has 3x less memory bandwidth than the M3 Ultra but 4x more FLOPS.
By running compute-bound prefill on the DGX Spark, memory-bound decode on the M3 Ultra, and streaming the KV cache over 10GbE, we are able to get the best of both hardware with massive speedups.
Short explanation in this thread & link to full blog post below.

274,94K
Topp
Rankning
Favoriter

