Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meituan LongCat
🚀 Escalando embeddings, no solo expertos—introduciendo un nuevo camino para LLMs eficientes.
Hallazgo clave: En escenarios de alta escasez, los embeddings N-gram producen una mejor frontera de Pareto que simplemente añadir más expertos de MoE.
Por lo tanto, presentamos LongCat-Flash-Lite—el primer modelo de código abierto construido sobre esta idea.
⚙️ 68.5B Total de Parámetros (37.13B no-embedding) | 2.9B~4.5B Activos
📊 Alto Rendimiento: SWE-Bench 54.4 | τ²-Bench 72.8 | TerminalBench 33.75
📃 Ventana de Contexto de 256K (potenciado por YARN)
✨ Optimizado para Agente/Codificación, fuerte en razonamiento general
⚡ ~700 tokens/s de velocidad de inferencia máxima
El resultado: Logra un rendimiento competitivo dentro de su escala a un costo y latencia significativamente más bajos.
Hugging Face:
Informe Técnico:



18
🚀 Informe Técnico de LongCat-Flash-Thinking-2601 – ¡Ahora completamente liberado!
Perspectivas clave:
🌍 RL agentic a gran escala (¡14 páginas de análisis profundos!)
🔹 Escalado del entorno: Una mirada detallada a nuestra tubería automatizada que construye más de 10,000 entornos ejecutables y verificables en más de 20 dominios.
🔹 Infraestructura de RL: Un marco DORA mejorado que soporta entrenamiento asíncrono con más de 32,000 entornos concurrentes, abordando problemas de estabilidad en tareas de cola larga y altamente heterogéneas.
🛡️ Robustez en el mundo real
🔹 Inyección de ruido: No más agentes "invernadero". Analizamos sistemáticamente el ruido del mundo real (ruido de usuario/herramienta) e inyectamos directamente en el bucle de entrenamiento.
🔹 RL curricular: Una estrategia basada en un currículo que endurece gradualmente el modelo contra entornos desordenados e imperfectos.
🧠 Marco de Pensamiento Pesado
🔹 Razonamiento paralelo: Expande la amplitud generando múltiples trayectorias de razonamiento independientes.
🔹 Resumen iterativo: Expande la profundidad utilizando un modelo de resumen para reflexionar y sintetizar trayectorias paralelas antes de tomar decisiones finales.
🔹 Memoria contextual: Un módulo de memoria diseñado específicamente para mantener el razonamiento coherente a lo largo de horizontes largos.
⚡ Atención Zigzag
🔹 Diseño de Conectividad Zigzag que combina MLA + SSA para reducir el cómputo mientras se preserva el flujo de información global.
🔹 Cambio a variantes dispersas durante el entrenamiento medio produce una aceleración de 1.5× y soporta contextos de 1M tokens — sentando las bases para futuros avances en el razonamiento agentic de largo contexto.
🔹 Explorar:
📊 Logra SOTA entre
modelos de código abierto en benchmarks clave agentic: búsqueda, uso de herramientas, razonamiento matemático y codificación.
Si deseas más detalles, no dudes en consultar el informe técnico completo.
• Documento:
• Sitio web:
• GitHub:
• Hugging Face:




🚀 Presentamos LongCat-Flash-Thinking-2601 — Una versión diseñada para un pensamiento profundo y general agentic.
✨ Destacados:
🤖 Capacidades de Agente de Primer Nivel
🔹 Rendimiento: Resultados de referencia de primer nivel (TIR / Búsqueda Agentic / Uso de Herramientas Agentic); capacidad de generalización superb, superando a Claude en tareas complejas y aleatorias
🔹 Escalado de Entorno: Múltiples entornos de alta calidad construidos automáticamente; gráfico de dependencia denso
🔹 RL Multi-Entorno: DORA extendido (nuestra infraestructura de RL), que apoya el entrenamiento agentic a gran escala en múltiples entornos
🛡️ Robustez en el Mundo Real
🔹 Rendimiento: Rendimiento sólido en escenarios desordenados e inciertos (Vita-Noise & Tau^2-Noise)
🔹 Análisis de Ruido: Análisis sistemático del ruido del mundo real en escenarios agentic
🔹 RL Curricular: Aumento del tipo e intensidad de ruido durante el entrenamiento
🎯 Modo de Pensamiento Pesado
🔹 Pensamiento Paralelo: Expande la amplitud a través de múltiples pistas de razonamiento independientes
🔹 Resumen Iterativo: Mejora la profundidad utilizando un modelo de resumen para sintetizar salidas, apoyando bucles de razonamiento iterativos
📅 Una cosa más: contexto de 1M tokens a través de Zigzag Attention llegará pronto.
🔍 Pruébalo ahora:
✅ El acceso a la API para esta versión también está disponible.
Hugging Face:
GitHub:


Parte superior
Clasificación
Favoritos
