🎉 Congratulazioni al team di Mistral per il lancio della famiglia Mistral 3! Siamo orgogliosi di condividere che @MistralAI, @NVIDIAAIDev, @RedHat_AI e vLLM hanno lavorato a stretto contatto per fornire supporto completo Day-0 per l'intera gamma Mistral 3. Questa collaborazione ha reso possibile: • Checkpoint ottimizzati NVFP4 (llm-compressor) • Kernel Sparse MoE per Mistral Large 3 • Servizio disaggregato prefill/decode • Inferenza multimodale + contesto lungo • Inferenza efficiente su A100 / H100 / Blackwell 🙏 Un enorme grazie a @MistralAI, @NVIDIAAIDev e @RedHat_AI per la forte partnership e l'impegno ingegneristico che ha reso possibile l'ottimizzazione Day-0. Se desideri il percorso di distribuzione open-source più veloce ed efficiente per l'intera gamma Mistral 3—vLLM è pronto oggi.