Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vamos: ¡Mistral 3 introduce una familia completa de código abierto de nueva generación bajo licencia Apache 2.0!
Tres modelos pequeños y densos "Ministral" (3B, 8B, 14B) más Mistral Large 3, un MoE esparso a nivel frontera con 41B activos y 675B parámetros totales, entrenados con 3000 H200 y lanzados bajo Apache 2.0. Large 3 cumple con lo más avanzado entre modelos de instrucciones de peso abierto, añade capacidades multimodales + multilingües y está optimizado con NVIDIA (kernels TensorRT-LLM, SGLang, Blackwell) para un despliegue eficiente desde portátiles en clústeres GB200.
Los modelos Ministral ofrecen las mejores variantes de coste-rendimiento, multimodalidad y nuevas variantes de razonamiento, convirtiendo esta en una de las versiones de IA totalmente abiertas más potentes hasta la fecha.
Sí, no pueden competir con Gemin 3, Opus 4.5 o GPT-5 alto, pero son una gran alternativa abierta, especialmente comparados con los chinos, y una gran ventaja para Europa.

Populares
Ranking
Favoritas

