热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲

Alex Cheema - e/acc
他们甚至更改了早期访问贴纸上的名称。
这很有创意,不得不说。



Eito Miyamura | 🇯🇵🇬🇧2025年10月19日
在LinkedIn上指出@_rexliu来自@gen_analysis的一些不当行为 - 粗糙的AI图像编辑,窃取他人的帖子并声称是自己的。
两天前,@exolabs的朋友们发布了一篇精彩的帖子,涉及@NVIDIA和@Apple,并使用这两种硬件加速设备上的LLMs。
然后,我在LinkedIn上看到了一篇来自@_rexliu的帖子,声称他们“刚刚在DGX Spark上微调了gpt-oss-120B(QLoRA 4-bit)……”(见截图)。超级熟悉的设置,惊人相似的表格,背景中惊人相似的植物,电缆布置也非常相似。而且NVIDIA的贴纸下没有设备ID。(业余错误)
是的……这些家伙显然看到了@alexocheema在LinkedIn上病毒式传播的帖子,偷走了帖子图像,并进行了AI编辑,以便窃取一些不应得的赞誉,声称自己在运行这些酷炫的创新。(而且没有给@exolabs致谢)
这种窃取信用的AI图像编辑将变得越来越简单和普遍。大家要小心。

8.91K
哈哈,AI 抄袭内容是新的潮流吗?

Eito Miyamura | 🇯🇵🇬🇧2025年10月19日
在LinkedIn上指出@_rexliu来自@gen_analysis的一些不当行为——业余的AI图像编辑,窃取他人的帖子并声称是自己的。
两天前,@exolabs的朋友们发布了一篇精彩的帖子,内容涉及@NVIDIA和@Apple,使用这两种硬件加速设备上的LLMs。
然后,我在LinkedIn上看到了一篇来自@_rexliu的帖子,声称他们“刚刚在DGX Spark上微调了gpt-oss-120B(QLoRA 4-bit)……”(见截图)。超级熟悉的设置,惊人相似的表格,背景中惊人相似的植物,电缆布置也非常相似。而且NVIDIA的贴纸下没有设备ID。(业余错误)
是的……这些家伙显然看到了@alexocheema在LinkedIn上病毒式传播的帖子,偷走了帖子图片,并进行了AI编辑,以便窃取一些不应得的赞誉,声称自己在进行这些酷炫的创新。(而且没有给@exolabs任何信用)
这种窃取信用的AI图像编辑将变得越来越简单和普遍。大家要小心。
@garrytan,你在你的YC同伴中有一些不当行为。

349
NVIDIA 给我们送来了 2 台 DGX Spark。
一段时间以来,我们一直在想我们该如何使用它们。
内存带宽为 273GB/s,使其在 batch_size=1 推理时比 M3 Ultra(819GB/s)慢 3 倍。但它的 FLOPS 是 M3 Ultra 的 4 倍(100 TFLOPS 对比 26 TFLOPS)。
所以我们想,如果我们能将 DGX Spark 和 M3 Ultra 结合起来,利用 DGX Spark 的强大计算能力和 M3 Ultra 的超大内存带宽,那会怎么样呢。
我们想出了一个方法,可以在两个设备之间分配推理,并在长提示下实现比单独使用 M3 Ultra 快 4 倍的加速。
完整细节请参见下面链接的博客文章。

EXO Labs2025年10月16日
Clustering NVIDIA DGX Spark + M3 Ultra Mac Studio for 4x faster LLM inference.
DGX Spark: 128GB @ 273GB/s, 100 TFLOPS (fp16), $3,999
M3 Ultra: 256GB @ 819GB/s, 26 TFLOPS (fp16), $5,599
The DGX Spark has 3x less memory bandwidth than the M3 Ultra but 4x more FLOPS.
By running compute-bound prefill on the DGX Spark, memory-bound decode on the M3 Ultra, and streaming the KV cache over 10GbE, we are able to get the best of both hardware with massive speedups.
Short explanation in this thread & link to full blog post below.

274.94K
热门
排行
收藏

