Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Análisis independiente de modelos de IA y proveedores de alojamiento: elija el mejor modelo y proveedor de API para su caso de uso
Cerebras ha estado demostrando su capacidad para alojar grandes MoEs a velocidades muy altas esta semana, lanzando los puntos finales Qwen3 235B 2507 y Qwen3 Coder 480B a >1,500 tokens de salida/s
➤ @CerebrasSystems ahora ofrece puntos finales tanto para Qwen3 235B 2507 Razonamiento como No-razonamiento. Ambos modelos tienen un total de 235B parámetros con 22B activos.
➤ Qwen 3 235B 2507 Razonamiento ofrece una inteligencia comparable a o4-mini (alta) y DeepSeek R1 0528. La variante No-razonamiento ofrece una inteligencia comparable a Kimi K2 y muy por encima de GPT-4.1 y Llama 4 Maverick.
➤ Qwen3 Coder 480B tiene 480B parámetros totales con 35B activos. Este modelo es particularmente fuerte para la codificación agente y se puede utilizar en una variedad de herramientas de agentes de codificación, incluyendo la Qwen3-Coder CLI.
Los lanzamientos de Cerebras representan la primera vez que este nivel de inteligencia ha estado accesible a estas velocidades de salida y tienen el potencial de desbloquear nuevos casos de uso, como usar un modelo de razonamiento para cada paso de un agente sin tener que esperar minutos.

23.61K
🇰🇷 LG lanzó recientemente el EXAONE 4.0 32B - obtiene 62 en el Índice de Inteligencia de Análisis Artificial, la puntuación más alta para un modelo 32B hasta ahora.
El EXAONE 4.0 de @LG_AI_Research se lanza en dos variantes: el modelo híbrido de razonamiento 32B del que estamos reportando resultados de referencia aquí, y un modelo más pequeño de 1.2B diseñado para aplicaciones en dispositivo que aún no hemos evaluado.
Junto con el reciente lanzamiento del Solar Pro 2 de Upstage, es emocionante ver a los laboratorios de IA coreanos unirse a los de EE. UU. y China cerca de la cima de las tablas de inteligencia.
Resultados clave:
➤ 🧠 EXAONE 4.0 32B (Razonamiento): En modo de razonamiento, el EXAONE 4.0 obtiene 62 en el Índice de Inteligencia de Análisis Artificial. Esto iguala a Claude 4 Opus y al nuevo Llama Nemotron Super 49B v1.5 de NVIDIA, y se sitúa solo 1 punto detrás de Gemini 2.5 Flash.
➤ ⚡ EXAONE 4.0 32B (No Razonamiento): En modo no razonamiento, el EXAONE 4.0 obtiene 51 en el Índice de Inteligencia de Análisis Artificial. Iguala a Llama 4 Maverick en inteligencia a pesar de tener solo ~1/4 de parámetros totales (aunque tiene ~2x los parámetros activos).
➤ ⚙️ Tokens de salida y verbosidad: En modo de razonamiento, el EXAONE 4.0 utilizó 100M de tokens de salida para el Índice de Inteligencia de Análisis Artificial. Esto es más alto que algunos otros modelos de frontera, pero se alinea con las tendencias recientes de modelos de razonamiento que utilizan más tokens de salida para 'pensar más' - similar a Llama Nemotron Super 49B v1.5, Grok 4 y Qwen3 235B 2507 Razonamiento. En modo no razonamiento, el EXAONE 4.0 utilizó 15M de tokens - alto para un no razonador, pero no tan alto como los 30M de Kimi K2.
Detalles clave:
➤ Razonamiento híbrido: El modelo ofrece opcionalidad entre modo 'razonamiento' y modo 'no razonamiento'.
➤ Disponibilidad: Actualmente alojado por @friendliai, y con precios competitivos (especialmente en comparación con opciones propietarias) por FriendliAI a $1 por 1M de tokens de entrada y salida.
➤ Pesos abiertos: EXAONE 4.0 es un modelo de pesos abiertos disponible bajo el Acuerdo de Licencia del Modelo de IA EXAONE 1.2. La licencia limita el uso comercial.
➤ Multimodalidad: Solo entrada y salida de texto.
➤ Ventana de contexto: 131k tokens.
➤ Parámetros: 32B de parámetros activos y totales, disponibles en precisión de 16 bits y 8 bits (lo que significa que el modelo puede ejecutarse en un solo chip H100 en precisión completa).

41.35K
Anunciando el Ranking del Arena de Análisis Artificial de Música: con más de 5k votos, Suno v4.5 es el modelo líder de Generación de Música, seguido por el FUZZ-1.1 Pro de Riffusion.
Lyria 2 de Google ocupa el tercer lugar en nuestro ranking de Instrumental, y el v1.5 Allegro de Udio ocupa el tercer lugar en nuestro ranking de Voces.
El Ranking de Instrumental es el siguiente:
🥇 @SunoMusic V4.5
🥈 @riffusionai FUZZ-1.1 Pro
🥉 @GoogleDeepMind Lyria 2
@udiomusic v1.5 Allegro
@StabilityAI Stable Audio 2.0
@metaai MusicGen
Los rankings se basan en los votos de la comunidad a través de una diversa gama de géneros y prompts. ¿Quieres ver tu prompt destacado? Puedes enviar prompts en la arena hoy.
👇 ¡Mira abajo el Ranking de Voces y el enlace para participar!

21.96K
Cambio de la demanda del modelo 2024 a 2025: Google (+49pts), DeepSeek (+53pts) y xAI (+31pts) han logrado ganancias masivas en la cuota de demanda durante el año pasado
@Google ha pasado de ser un rezagado de IA a un líder de IA con un aumento de ~2,5 veces en la proporción de encuestados que utilizan o consideran la serie de modelos Gemini. Un factor clave de esto ha sido que Google ha logrado avances significativos en inteligencia: Gemini 2.5 Pro ahora se encuentra en el #3 en nuestro Índice de Inteligencia de Análisis Artificial, en comparación con el retraso significativo de OpenAI y Anthropic a principios de 2024.
@deepseek_ai en el primer semestre de 2024 solo había lanzado DeepSeek 67B, un modelo que tuvo una adopción limitada y tuvo un rendimiento inferior al de Llama 3 70B. DeepSeek vio por primera vez cierta aceptación a fines de 2024 con los lanzamientos de su modelo V2, y luego vio una rápida adopción a principios de 2025 con sus modelos V3 y R1 que los han llevado al liderazgo entre los modelos de peso abierto.
@xai lanzó su primer modelo Grok-1 a mediados del primer semestre de 2024 y desde entonces ha ascendido rápidamente al liderazgo de inteligencia en todos los modelos con lanzamientos sucesivos, que culminaron con el lanzamiento de Grok 4 la semana pasada.
Fuente: Encuesta de adopción de IA de análisis artificial H1 2025 (informe disponible en el sitio web de Análisis artificial)

388.83K
Proveedores de Kimi K2: Groq está sirviendo Kimi K2 a >400 tokens/s de salida, 40 veces más rápido que la API propia de Moonshot
Felicitaciones a varios proveedores por lanzarse rápidamente API para Kimi K2, incluidos @GroqInc, @basetenco, @togethercompute, @FireworksAI_HQ, @parasail_io, @novita_labs, @DeepInfra y, por supuesto, @Kimi_Moonshot. Esto es impresionante teniendo en cuenta el tamaño del modelo de 1 billón de parámetros totales.
Groq destaca por su velocidad ultrarrápida. DeepInfra, Novita y Baseten destacan por sus precios, siendo los únicos proveedores con precios similares o más baratos que la API propia de Moonshot.
Consulte a continuación para obtener más comparaciones entre los proveedores. Esperamos aumentos rápidos en la velocidad en algunos proveedores a medida que los equipos optimizan para el modelo K2: nuestros números a continuación muestran velocidades medias en las últimas 72 horas, pero ya estamos viendo que DeepInfra aumenta hasta 62 tokens/s en las mediciones de hoy

52.06K
Si bien Kimi k2 de Moonshot AI es el modelo líder de no razonamiento de pesos abiertos en el Índice de Inteligencia de Análisis Artificial, produce ~ 3 veces más tokens que otros modelos sin razonamiento, difuminando las líneas entre el razonamiento y el no razonamiento
Kimi k2 es el modelo de pesos abiertos más grande hasta el momento: parámetros totales de 1T con 32B activos (esto requiere 1 TB de memoria en FP8 nativo para mantener los pesos). Tenemos a k2 en el puesto 57 en el Índice de Inteligencia de Análisis Artificial, una puntuación impresionante que lo sitúa por encima de modelos como GPT-4.1 y DeepSeek V3, pero por detrás de los principales modelos de razonamiento.
Hasta ahora, ha habido una clara distinción entre el modelo de razonamiento y los modelos no razonadores en nuestras evaluaciones, definida no solo por si el modelo usa <reasoning> etiquetas, sino principalmente por el uso de tokens. El número medio de tokens utilizados para responder a todas las evaluaciones en el Índice de Inteligencia de Análisis Artificial es ~ 10 veces mayor para los modelos de razonamiento que para los modelos sin razonamiento.
Kimi k2 de @Kimi_Moonshot usa ~ 3 veces la cantidad de tokens que usa el modelo medio de no razonamiento. Su uso de tokens es solo hasta un 30% más bajo que Claude 4 Sonnet y Opus cuando se ejecuta en su modo de pensamiento extendido de presupuesto máximo, y es casi el triple del uso de tokens tanto Claude 4 Sonnet como Opus con el razonamiento desactivado.
Por lo tanto, recomendamos que Kimi k2 se compare con Claude 4 Sonnet y Opus en sus modos de pensamiento extendido de presupuesto máximo, no con las puntuaciones no racionales de los modelos Claude 4.
Kimi k2 está disponible en la API propia de @Kimi_Moonshot, así como en @FireworksAI_HQ, @togethercompute, @novita_labs y @parasail_io.
Consulte a continuación y en Análisis artificial para un análisis 👇 más detallado



60.4K
¡La nueva API de investigación profunda de OpenAI cuesta hasta ~ $ 30 por llamada a la API! Estos nuevos puntos finales de la API de Deep Research podrían ser la nueva forma más rápida de gastar dinero
A lo largo de nuestras 10 consultas de prueba de investigación profunda, gastamos $100 en o3 y $9.18 en o4-mini. ¿Cómo se vuelven tan grandes los costos? Precios altos y millones de tokens.
Estos puntos finales son versiones de o3 y o4-mini que han sido RL para tareas de investigación profunda. La disponibilidad a través de API permite que se utilicen tanto con la herramienta de búsqueda web de OpenAI como con fuentes de datos personalizadas a través de servidores MCP remotos.
El precio de O4-Mini-Deep-Research es 5 veces más bajo que el precio de O3-Deep-Research. En nuestras consultas de prueba, o4-mini también parece usar menos tokens: es más de 10 veces más barato en total en nuestras 10 consultas de prueba.
Precios:
➤ O3-deep-research tiene un precio de entrada de $ 10 / M (entrada en caché de $ 2.50), salida de $ 40 / M
➤ o4-mini-deep-research tiene un precio de entrada de $ 2 / M (entrada en caché de $ 0.5), salida de $ 8 / M
Estos puntos finales son sustancialmente más caros que los puntos finales estándar o3 y o4-mini de OpenAI:
➤ O3: Entrada de 2 USD/M (0,5 USD) en caché, salida de 8 USD/M para O3
➤ O4-mini: $1.1 /M (0.275 en caché) de entrada, $4.4 /M de salida

37.05K
Black Forest Labs va a crear una avalancha de nuevas empresas con su modelo de edición de imágenes de peso abierto lanzado hoy
- La prueba virtual será 10 veces mejor, pero eso es solo el comienzo. También veremos nuevas experiencias a medida que las personas se vuelvan creativas con estos modelos (mucho más expansivos que los filtros de Snapchat e Instagram)
- El modelo es solo 12B y se puede ajustar en hardware de consumo
- Plataformas como @FAL ofrecen soporte completo de formación LoRA
Gracias a @FAL por la imagen de abajo, tienen una gran reseña de su oferta de ajuste fino (enlace a continuación)

34.14K
¡La edición de imágenes ahora es de código abierto! Black Forest Labs acaba de lanzar un modelo de edición de imágenes de peso abierto comparable en rendimiento a los modelos propietarios
@bfl_ml ha lanzado FLUX.1 Kontext [dev], un modelo de edición de imágenes 12B. Se nos dio acceso a la versión preliminar y la hemos estado probando en nuestro Artificial Analysis Image Arena.
Hemos verificado de forma independiente que ofrece un rendimiento comparable o superior a varios modelos propietarios, incluidos Gemini 2.0 Flash de Google y Bagel de ByteDance. FLUX.1 Kontext [dev] solo está por detrás de los propios modelos propietarios de Black Forest Labs y GPT-4o de OpenAI.
Las API alojadas también están disponibles en @FAL , @replicate @togethercompute
Enlace a continuación a los pesos en HuggingFace 👐

24.58K
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas