Denunciar un mal comportamiento de @_rexliu de @gen_analysis en LinkedIn: edición de imágenes de IA amateur para robar la publicación de otra persona y reclamarla para sí mismos Hace dos días, amigos de @exolabs lanzaron una publicación increíble con @nvidia + @Apple y usando ambos hardware para acelerar los LLM en el dispositivo. Y luego, vi una publicación en LI de @_rexliu, que afirmaba que "acaban de ajustar gpt-oss-120B (QLoRA de 4 bits) en un DGX Spark ..." (ver capturas de pantalla). Configuración súper familiar, mesa sorprendentemente similar, planta sorprendentemente similar en el fondo, ubicaciones de cables notablemente similares. Y no hay ID de dispositivo de NVIDIA debajo de la etiqueta. (error de aficionado) Sí.... Estos chicos definitivamente vieron que la publicación de @alexocheema en LI se volvió viral, robaron la imagen de la publicación y la editaron con IA, por lo que pueden robar algunos elogios inmerecidos por ejecutar estas innovaciones geniales. (Y sin créditos para @exolabs) Este tipo de ediciones de imágenes de IA para robar crédito serán cada vez más fáciles y comunes ahora. Ten cuidado ahí fuera.
EXO Labs
EXO Labs16 oct 2025
Agrupación en clústeres NVIDIA DGX Spark + M3 Ultra Mac Studio para una inferencia de LLM 4 veces más rápida. DGX Spark: 128 GB @ 273 GB/s, 100 TFLOPS (fp16), $ 3,999 M3 Ultra: 256 GB @ 819 GB/s, 26 TFLOPS (fp16), $ 5,599 El DGX Spark tiene 3 veces menos ancho de banda de memoria que el M3 Ultra, pero 4 veces más FLOPS. Al ejecutar el relleno previo vinculado a la computación en el DGX Spark, la decodificación vinculada a la memoria en el M3 Ultra y la transmisión de la caché de KV a través de 10 GbE, podemos obtener lo mejor de ambos hardware con aceleraciones masivas. Breve explicación en este hilo y enlace a la publicación completa del blog a continuación.
@_rexliu @gen_analysis @exolabs @nvidia @Apple La publicación en cuestión:
35.59K