Appel à l'attention sur un mauvais comportement de @_rexliu de @gen_analysis sur LinkedIn - montage d'image AI amateur pour voler le post de quelqu'un d'autre et le revendiquer comme le leur. Il y a deux jours, des amis de @exolabs ont publié un super post avec @nvidia + @Apple en utilisant les deux matériels pour accélérer les LLM sur appareil. Et ensuite, j'ai vu un post sur LI par @_rexliu, affirmant qu'ils "viennent de peaufiner gpt-oss-120B (QLoRA 4-bit) sur un DGX Spark..." (voir les captures d'écran). Configuration super familière, table frappante similaire, plante frappante similaire en arrière-plan, placements de câbles remarquablement similaires. Et pas d'ID de dispositif de NVIDIA sous l'autocollant. (erreur amateur) Ouais.... Ces gars-là ont définitivement vu le post de @alexocheema sur LI devenir viral, ont volé l'image du post, et l'ont modifiée avec AI, afin de pouvoir voler des éloges non mérités pour avoir réalisé ces innovations cool. (Et pas de crédits à @exolabs) Ces types de montages d'images AI pour voler du crédit deviendront de plus en plus faciles et courants maintenant. Faites attention là-bas.
EXO Labs
EXO Labs16 oct. 2025
Clustering NVIDIA DGX Spark + M3 Ultra Mac Studio for 4x faster LLM inference. DGX Spark: 128GB @ 273GB/s, 100 TFLOPS (fp16), $3,999 M3 Ultra: 256GB @ 819GB/s, 26 TFLOPS (fp16), $5,599 The DGX Spark has 3x less memory bandwidth than the M3 Ultra but 4x more FLOPS. By running compute-bound prefill on the DGX Spark, memory-bound decode on the M3 Ultra, and streaming the KV cache over 10GbE, we are able to get the best of both hardware with massive speedups. Short explanation in this thread & link to full blog post below.
@_rexliu @gen_analysis @exolabs @nvidia @Apple Le post en question :
35,63K