Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Alex Cheema - e/acc
Ze hebben zelfs de naam op de early access-sticker veranderd.
Het is creatief, niet gelogen.



Eito Miyamura | 🇯🇵🇬🇧19 okt 2025
Slechte gedrag van @_rexliu van @gen_analysis op LinkedIn aan de kaak stellen - amateuristische AI-afbeeldingsbewerking om iemands post te stelen en deze voor zichzelf op te eisen.
Twee dagen geleden hebben vrienden van @exolabs een geweldige post uitgebracht met @nvidia + @Apple en beide hardware gebruikt om LLM's op het apparaat te versnellen.
En toen zag ik een post op LI van @_rexliu, die beweerde dat ze "net gpt-oss-120B (QLoRA 4-bit) op een DGX Spark hebben gefinetuned..." (zie screenshots). Super bekende opstelling, opvallend vergelijkbare tafel, opvallend vergelijkbare plant op de achtergrond, opmerkelijk vergelijkbare kabelplaatsingen. En geen apparaatspecificatie van NVIDIA onder de sticker. (amateurfout)
Ja.... Deze jongens hebben zeker @alexocheema's post op LI gezien die viraal ging, hebben de afbeelding van de post gestolen en deze AI-bewerkt, zodat ze wat onverdiende lof kunnen stelen voor het uitvoeren van deze coole innovaties. (En geen credits aan @exolabs)
Dit soort AI-afbeeldingsbewerkingen om krediet te stelen zal steeds gemakkelijker en gebruikelijker worden. Wees voorzichtig daarbuiten.

8,92K
lol, is AI-copycatinhoud de nieuwe meta?

Eito Miyamura | 🇯🇵🇬🇧19 okt 2025
Slechte gedrag van @_rexliu van @gen_analysis op LinkedIn aan de kaak stellen - amateuristische AI-afbeeldingsbewerking om iemands post te stelen en deze voor zichzelf op te eisen.
Twee dagen geleden hebben vrienden van @exolabs een geweldige post uitgebracht met @nvidia + @Apple en beide hardware gebruikt om LLM's op het apparaat te versnellen.
En toen zag ik een post op LI van @_rexliu, die beweerde dat ze "net gpt-oss-120B (QLoRA 4-bit) op een DGX Spark hebben gefinetuned..." (zie screenshots). Super bekende opstelling, opvallend vergelijkbare tafel, opvallend vergelijkbare plant op de achtergrond, opmerkelijk vergelijkbare kabelplaatsingen. En geen apparaatspecificatie van NVIDIA onder de sticker. (amateurfout)
Ja.... Deze jongens hebben zeker @alexocheema's post op LI die viraal ging gezien, de afbeelding van de post gestolen en deze AI-bewerkt, zodat ze wat onverdiende lof kunnen stelen voor het uitvoeren van deze coole innovaties. (En geen credits aan @exolabs)
Dit soort AI-afbeeldingsbewerkingen om krediet te stelen zal steeds gemakkelijker en gebruikelijker worden. Wees voorzichtig daarbuiten.
@garrytan, je hebt slecht gedrag in je YC-cohorten.

353
NVIDIA heeft ons 2 DGX Sparks gestuurd.
Een tijdlang vroegen we ons af wat we ermee zouden doen.
De geheugensnelheid is 273GB/s, wat het 3x langzamer maakt dan een M3 Ultra (819GB/s) voor batch_size=1 inferentie. Maar het heeft 4x meer FLOPS (100 TFLOPS vergeleken met 26 TFLOPS).
Dus dachten we, wat als we de DGX Spark en M3 Ultra konden combineren, en gebruik konden maken van zowel de enorme rekencapaciteit van de DGX Spark als de enorme geheugensnelheid van de M3 Ultra.
We hebben een manier bedacht om de inferentie over beide apparaten te splitsen en een versnelling van tot 4x te bereiken voor lange prompts in vergelijking met de M3 Ultra alleen.
Volledige details in de blogpost hieronder.

EXO Labs16 okt 2025
Clustering NVIDIA DGX Spark + M3 Ultra Mac Studio voor 4x snellere LLM-inferentie.
DGX Spark: 128GB @ 273GB/s, 100 TFLOPS (fp16), $3,999
M3 Ultra: 256GB @ 819GB/s, 26 TFLOPS (fp16), $5,599
De DGX Spark heeft 3x minder geheugensnelheid dan de M3 Ultra, maar 4x meer FLOPS.
Door compute-bound prefill op de DGX Spark uit te voeren, memory-bound decode op de M3 Ultra, en de KV-cache via 10GbE te streamen, kunnen we het beste van beide hardware combineren met enorme versnellingen.
Korte uitleg in deze thread & link naar de volledige blogpost hieronder.

274,94K
Boven
Positie
Favorieten

