Schlechte Verhaltensweisen von @_rexliu von @gen_analysis auf LinkedIn anprangern - amateurhafte KI-Bildbearbeitung, um einen anderen Beitrag zu stehlen und ihn für sich selbst zu beanspruchen. Vor zwei Tagen haben die Freunde von @exolabs einen großartigen Beitrag mit @nvidia + @Apple veröffentlicht und beide Hardware verwendet, um LLMs auf dem Gerät zu beschleunigen. Und dann sah ich einen Beitrag auf LI von @_rexliu, der behauptete, sie hätten "gerade gpt-oss-120B (QLoRA 4-Bit) auf einem DGX Spark feinabgestimmt..." (siehe Screenshots). Super vertraute Einrichtung, auffallend ähnlicher Tisch, auffallend ähnliche Pflanze im Hintergrund, bemerkenswert ähnliche Kabelplatzierungen. Und keine Geräte-ID von NVIDIA unter dem Aufkleber. (amateurhafter Fehler) Ja.... Diese Leute haben definitiv den viralen Beitrag von @alexocheema auf LI gesehen, das Beitragsbild gestohlen und es mit KI bearbeitet, damit sie sich unverdienten Ruhm für die Durchführung dieser coolen Innovationen stehlen können. (Und keine Anerkennung für @exolabs) Diese Art von KI-Bildbearbeitungen, um Anerkennung zu stehlen, wird jetzt zunehmend einfach und verbreitet werden. Seid vorsichtig da draußen.
EXO Labs
EXO Labs16. Okt. 2025
Clustering NVIDIA DGX Spark + M3 Ultra Mac Studio for 4x faster LLM inference. DGX Spark: 128GB @ 273GB/s, 100 TFLOPS (fp16), $3,999 M3 Ultra: 256GB @ 819GB/s, 26 TFLOPS (fp16), $5,599 The DGX Spark has 3x less memory bandwidth than the M3 Ultra but 4x more FLOPS. By running compute-bound prefill on the DGX Spark, memory-bound decode on the M3 Ultra, and streaming the KV cache over 10GbE, we are able to get the best of both hardware with massive speedups. Short explanation in this thread & link to full blog post below.
@_rexliu @gen_analysis @exolabs @nvidia @Apple Der betreffende Beitrag:
35,63K