Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Alex Cheema - e/acc
Sie haben sogar den Namen auf dem Early Access-Aufkleber geändert.
Es ist kreativ, um ehrlich zu sein.



Eito Miyamura | 🇯🇵🇬🇧19. Okt. 2025
Schlechte Verhaltensweisen von @_rexliu von @gen_analysis auf LinkedIn anprangern - amateurhafte KI-Bildbearbeitung, um einen anderen Beitrag zu stehlen und ihn für sich selbst zu beanspruchen.
Vor zwei Tagen haben die Freunde von @exolabs einen großartigen Beitrag mit @nvidia + @Apple veröffentlicht und beide Hardware verwendet, um LLMs auf dem Gerät zu beschleunigen.
Und dann sah ich einen Beitrag auf LI von @_rexliu, der behauptete, sie hätten "gerade gpt-oss-120B (QLoRA 4-Bit) auf einem DGX Spark feinabgestimmt..." (siehe Screenshots). Super vertraute Einrichtung, auffallend ähnlicher Tisch, auffallend ähnliche Pflanze im Hintergrund, bemerkenswert ähnliche Kabelplatzierungen. Und keine Geräte-ID von NVIDIA unter dem Aufkleber. (amateurhafter Fehler)
Ja.... Diese Leute haben definitiv den viralen Beitrag von @alexocheema auf LI gesehen, das Beitragsbild gestohlen und es mit KI bearbeitet, damit sie sich unverdienten Ruhm für die Durchführung dieser coolen Innovationen stehlen können. (Und keine Anerkennung für @exolabs)
Diese Art von KI-Bildbearbeitungen, um Anerkennung zu stehlen, wird jetzt zunehmend einfach und verbreitet werden. Seid vorsichtig da draußen.

8,86K
lol, AI-Kopierinhalt ist das neue Meta?

Eito Miyamura | 🇯🇵🇬🇧19. Okt. 2025
Calling out some bad behaviour by @_rexliu from @gen_analysis on LinkedIn - amateurish AI Image Edit to steal someone else's post and claim it for themselves
Two days ago, friends at @exolabs released an awesome post with @nvidia + @Apple and using both hardware to speed up LLMs on-device.
And then, I saw a post on LI by @_rexliu, claiming they "just fine-tuned gpt-oss-120B (QLoRA 4-bit) on a DGX Spark..." (see screenshots). Super familiar setup, strikingly similar table, strikingly similar plant in the background, remarkably similar cable placements. And no device ID from NVIDIA below the sticker. (amateur mistake)
Yeah.... These guys definitely saw @alexocheema's post on LI going viral, stole the post image, and AI-edited it, so they can steal some unearned praise for running these cool innovations. (And no credits to @exolabs)
These types of AI image edits to steal credit will become increasingly easy and common now. Be careful out there.
@garrytan, you have some bad behaviour in your YC cohorts.

300
NVIDIA hat uns 2 DGX Sparks geschickt.
Eine Zeit lang haben wir uns gefragt, was wir damit machen würden.
Die Speicherbandbreite beträgt 273GB/s, was es 3x langsamer macht als ein M3 Ultra (819GB/s) für die Inferenz mit batch_size=1. Aber es hat 4x mehr FLOPS (100 TFLOPS im Vergleich zu 26 TFLOPS).
Also dachten wir, was wäre, wenn wir den DGX Spark und das M3 Ultra kombinieren könnten und sowohl die massive Rechenleistung des DGX Spark als auch die massive Speicherbandbreite des M3 Ultra nutzen könnten.
Wir haben einen Weg gefunden, die Inferenz auf beide Geräte zu verteilen und eine Beschleunigung von bis zu 4x für lange Eingabeaufforderungen im Vergleich zum M3 Ultra allein zu erreichen.
Vollständige Details im unten verlinkten Blogbeitrag.

EXO Labs16. Okt. 2025
Clustering NVIDIA DGX Spark + M3 Ultra Mac Studio für 4x schnellere LLM-Inferenz.
DGX Spark: 128GB @ 273GB/s, 100 TFLOPS (fp16), 3.999 $
M3 Ultra: 256GB @ 819GB/s, 26 TFLOPS (fp16), 5.599 $
Der DGX Spark hat 3x weniger Speicherbandbreite als der M3 Ultra, aber 4x mehr FLOPS.
Durch das Ausführen von rechenintensivem Prefill auf dem DGX Spark, speicherintensivem Decoding auf dem M3 Ultra und Streaming des KV-Caches über 10GbE können wir das Beste aus beiden Hardwarelösungen mit massiven Geschwindigkeitssteigerungen herausholen.
Kurze Erklärung in diesem Thread & Link zum vollständigen Blogbeitrag unten.

274,89K
Top
Ranking
Favoriten

