Denunciando un comportamento scorretto da parte di @_rexliu di @gen_analysis su LinkedIn - editing di immagini AI da dilettante per rubare il post di qualcun altro e rivendicarlo come proprio. Due giorni fa, gli amici di @exolabs hanno pubblicato un post fantastico con @nvidia + @Apple utilizzando entrambi i dispositivi per accelerare i LLM sui dispositivi. E poi, ho visto un post su LI da parte di @_rexliu, che affermava di aver "appena ottimizzato gpt-oss-120B (QLoRA 4-bit) su un DGX Spark..." (vedi screenshot). Configurazione super familiare, tavolo straordinariamente simile, pianta straordinariamente simile sullo sfondo, posizionamenti dei cavi notevolmente simili. E nessun ID dispositivo da NVIDIA sotto l'adesivo. (errore da dilettante) Sì.... Questi ragazzi hanno sicuramente visto il post di @alexocheema su LI diventare virale, hanno rubato l'immagine del post e l'hanno modificata con AI, così possono rubare qualche elogio immeritato per aver gestito queste fantastiche innovazioni. (E nessun credito a @exolabs) Questi tipi di editing di immagini AI per rubare crediti diventeranno sempre più facili e comuni ora. Fate attenzione là fuori.
EXO Labs
EXO Labs16 ott 2025
Clustering NVIDIA DGX Spark + M3 Ultra Mac Studio per un'inferenza LLM 4 volte più veloce. DGX Spark: 128GB @ 273GB/s, 100 TFLOPS (fp16), $3,999 M3 Ultra: 256GB @ 819GB/s, 26 TFLOPS (fp16), $5,599 Il DGX Spark ha 3 volte meno larghezza di banda della memoria rispetto all'M3 Ultra ma 4 volte più FLOPS. Eseguendo il prefill vincolato dalla computazione sul DGX Spark, il decode vincolato dalla memoria sull'M3 Ultra e trasmettendo la cache KV su 10GbE, siamo in grado di ottenere il meglio di entrambi gli hardware con enormi aumenti di velocità. Breve spiegazione in questo thread e link al post completo del blog qui sotto.
@_rexliu @gen_analysis @exolabs @nvidia @Apple Il post in questione:
35,6K