Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Hugging Face
Hugging Face republicó
Hemos lanzado nuestro modelo TTS basado en LFM2-350M como código abierto 🚀 También hemos lanzado muchos modelos FT diferentes.
Plataforma GPU: @hyperbolic_labs
Datos: Emilia + Emilia Yodas(EN)
Modelo LLM: LFM2-350M @LiquidAI_
Disco y Espacio: @huggingface
Estoy muy feliz de haber lanzado este modelo como código abierto. Muchas gracias a @VyvoSmartChain
#opensource #speech #tts #huggingface #lfm #gpu
29,25K
Hugging Face republicó
🚨 ¡Grandes noticias! Hemos decidido que la biblioteca de post-entrenamiento de @huggingface, TRL, soportará de forma nativa el entrenamiento de Modelos de Lenguaje Visual 🖼️
Esto se basa en nuestro reciente soporte de VLM en SFTTrainer — y no nos detendremos hasta que TRL sea la biblioteca de entrenamiento de VLM número 1 🥇
Más aquí 👉
Un enorme agradecimiento a @mervenoyann, @SergioPaniego y @ariG23498 🔥

27,3K
¡270 millones (no mil millones) de parámetros! ⚡️⚡️⚡️

Omar Sanseviero15 ago, 00:04
Presentamos Gemma 3 270M 🔥
🤏¡Un modelo pequeño! Solo 270 millones de parámetros
🧠 Muy fuerte en seguir instrucciones
🤖 Ajuste fino en solo unos minutos, con un amplio vocabulario que sirve como una base de alta calidad

37,95K
Hugging Face republicó
Presentamos DINOv3: un modelo de visión por computadora de última generación entrenado con aprendizaje auto-supervisado (SSL) que produce características de imagen potentes y de alta resolución. Por primera vez, un único backbone de visión congelado supera a soluciones especializadas en múltiples tareas de predicción densa de larga data.
Descubre más sobre DINOv3 aquí:
192
Hugging Face republicó
Un conjunto de datos de platos de comida muy interesante, si estás construyendo una aplicación/modelo de salud: 100 k muestras de comida cuidadosamente seleccionadas que abarcan comidas caseras, platos de restaurantes, ingredientes crudos y productos envasados.
Cómo se construyó es igual de valioso
• 50 k usuarios reales de Binance capturaron sus propios platos y fueron pre-anotados por anotadores humanos profesionales.
• Las etiquetas generadas por máquina fueron luego revisadas y refinadas por usuarios de Binance para garantizar la calidad.
• Una parte del conjunto de datos está disponible en Hugging Face bajo una licencia OpenRail.
Parece un nuevo enfoque para la recopilación de datos mediante crowdsourcing.
Enlace a continuación:

71,32K
Hugging Face republicó
🚀Estamos emocionados de abrir el código de Hunyuan-GameCraft, un marco de generación de videos de juegos interactivos de alta dinámica construido sobre HunyuanVideo.
Genera videos jugables y físicamente realistas a partir de una única imagen de escena y señales de acción del usuario, empoderando a creadores y desarrolladores para "dirigir" juegos con perspectivas en primera o tercera persona.
Ventajas Clave:
🔹Alta Dinámica: Unifica las entradas estándar del teclado en un espacio de acción continuo compartido, permitiendo un control de alta precisión sobre la velocidad y el ángulo. Esto permite explorar trayectorias complejas, superando el movimiento rígido y limitado de los modelos tradicionales. También puede generar contenido ambiental dinámico como nubes en movimiento, lluvia, nieve y flujo de agua.
🔹Consistencia a Largo Plazo: Utiliza una condición de historia híbrida para preservar la información original de la escena después de un movimiento significativo.
🔹Reducción de Costos Significativa: No es necesario modelar/renderizar de manera costosa. La destilación PCM comprime los pasos de inferencia, aumentando la velocidad y reduciendo costos. Esto permite que el modelo cuantizado de 13B funcione en GPUs de grado de consumo como la RTX 4090.
Página del Proyecto:
Código:
Informe Técnico:
Hugging Face:
152,87K
Hugging Face republicó
¡OpenAI gpt-oss 120B orquesta un video completo usando los espacios de Hugging Face! 🤯
Todo, en un ÚNICO prompt:
crea una imagen de un Labrador y úsala para generar un video simple de él
🛠️ Herramientas utilizadas:
1. Flux.1 Krea Dev de @bfl_ml
2. LTX Fast de @Lightricks
¡Eso es todo, gpt-oss 120B es uno de los MEJORES modelos de código abierto que he utilizado para llamar herramientas hasta ahora! ¡Kudos @OpenAI 🤗
43,66K
Hugging Face republicó
presentamos qqWen: nuestro proyecto completamente de código abierto (código + pesos + datos + informe técnico detallado) para el ajuste fino de pila completa (preentrenamiento + SFT + RL) una serie de modelos (1.5b, 3b, 7b, 14b y 32b) para un lenguaje de programación financiera de nicho llamado Q
¡Todos los detalles a continuación!


102,51K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado