在LinkedIn上指出@_rexliu来自@gen_analysis的一些不当行为 - 粗糙的AI图像编辑,窃取他人的帖子并声称是自己的。 两天前,@exolabs的朋友们发布了一篇精彩的帖子,涉及@NVIDIA和@Apple,并使用这两种硬件加速设备上的LLMs。 然后,我在LinkedIn上看到了一篇来自@_rexliu的帖子,声称他们“刚刚在DGX Spark上微调了gpt-oss-120B(QLoRA 4-bit)……”(见截图)。超级熟悉的设置,惊人相似的表格,背景中惊人相似的植物,电缆布置也非常相似。而且NVIDIA的贴纸下没有设备ID。(业余错误) 是的……这些家伙显然看到了@alexocheema在LinkedIn上病毒式传播的帖子,偷走了帖子图像,并进行了AI编辑,以便窃取一些不应得的赞誉,声称自己在运行这些酷炫的创新。(而且没有给@exolabs致谢) 这种窃取信用的AI图像编辑将变得越来越简单和普遍。大家要小心。
EXO Labs
EXO Labs2025年10月16日
集群 NVIDIA DGX Spark + M3 Ultra Mac Studio,实现 4 倍更快的 LLM 推理。 DGX Spark: 128GB @ 273GB/s, 100 TFLOPS (fp16), $3,999 M3 Ultra: 256GB @ 819GB/s, 26 TFLOPS (fp16), $5,599 DGX Spark 的内存带宽是 M3 Ultra 的 1/3,但 FLOPS 是其 4 倍。 通过在 DGX Spark 上运行计算密集型的预填充,在 M3 Ultra 上进行内存密集型的解码,并通过 10GbE 流式传输 KV 缓存,我们能够充分利用这两种硬件,实现巨大的速度提升。 此线程中的简短说明及完整博客文章链接如下。
@_rexliu @gen_analysis @exolabs @nvidia @Apple 涉及的帖子:
35.6K