Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Victor M
🤗 Jefe de @huggingface de Producto
Victor M republicó
Acabamos de lanzar 3 millones de muestras de un conjunto de datos de entrenamiento de modelos de lenguaje visual de alta calidad para casos de uso como:
📄 reconocimiento óptico de caracteres (OCR)
📊 respuesta a preguntas visuales (VQA)
📝 subtitulado
🤗 Aprende más:
📥 Descarga:
80,27K
Victor M republicó
Ahora puedes ajustar @Alibaba_Qwen Qwen-Image con AI Toolkit utilizando 24 GB de VRAM, con un adaptador de recuperación de precisión entrenado de forma personalizada que te permite ajustar a 3 bits con una pérdida de precisión mínima. Los cambios marcados en los valores predeterminados deberían funcionar para las GPU 3090/4090. Más en 🧵

15,77K
Victor M republicó
Realmente me gusta mucho @jandotai
Es una aplicación muy amigable para ejecutar LLMs localmente, excelente para la privacidad.
He probado otras como LM Studio y Ollama, y son buenas, pero están muy orientadas a ingenieros, un poco demasiado difíciles para mí.
Jan es simple, linda y bonita, y es una gran alternativa para conversar sin enviar tus datos (y secretos ;)) a grandes proveedores de IA.
¡Incluso puedes ejecutar modelos de proveedores remotos a través de API, si eso es lo que deseas!
Además, son muy receptivos a los comentarios y siempre están mejorando la aplicación.
Creo que hay espacio tanto para aplicaciones de LLM ejecutadas localmente como para aplicaciones de LLM en la nube; ejecutar localmente tiene sentido si quieres hablar de cosas muy privadas, terapia, etc. Es realmente importante que las personas puedan tener eso sin temer que sus datos puedan filtrarse en el futuro.
(No estoy afiliado ni pago, ¡solo me gusta mucho!)



218,32K
Victor M republicó
Presentamos Jan-v1: modelo 4B para búsqueda web, una alternativa de código abierto a Perplexity Pro.
En nuestras evaluaciones, Jan v1 ofrece un 91% de precisión en SimpleQA, superando ligeramente a Perplexity Pro mientras se ejecuta completamente de forma local.
Casos de uso:
- Búsqueda web
- Investigación profunda
Construido sobre la nueva versión de Qwen's Qwen3-4B-Thinking (hasta 256k de longitud de contexto), ajustado para razonamiento y uso de herramientas en Jan.
Puedes ejecutar el modelo en Jan, llama.cpp o vLLM. Para habilitar la búsqueda en Jan, ve a Configuración → Funciones experimentales → Activar, luego Configuración → Servidores MCP → habilita un MCP relacionado con la búsqueda como Serper.
Usa el modelo:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Créditos al equipo de @Alibaba_Qwen por Qwen3 4B Thinking y a @ggerganov por llama.cpp.
633,24K
Qwen-Image + Wan-2.2 = 🔥

Victor M12 ago, 06:19
¡Estoy tan emocionado de que ahora podamos generar videos de esta calidad en menos de 30 segundos! ¡El código abierto es lo mejor!
👇Prueba Wan 2.2 (con Lightning LoRA) en Hugging Face
1,19K
Victor M republicó
Presentamos GLM-4.5V: un avance en el razonamiento visual de código abierto
GLM-4.5V ofrece un rendimiento de vanguardia entre los modelos de código abierto en su clase de tamaño, dominando en 41 benchmarks.
Construido sobre el modelo base GLM-4.5-Air, GLM-4.5V hereda técnicas probadas de GLM-4.1V-Thinking mientras logra una escalabilidad efectiva a través de una poderosa arquitectura MoE de 106B parámetros.
Hugging Face:
GitHub:
API:
Pruébalo ahora:

264,76K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado