🎉Parabéns à equipe @Zai_org pelo lançamento do GLM-4.6V e do GLM-4.6V-Flash — com o dia 0 servindo de suporte em vLLM Recipes para equipes que querem rodá-las em suas próprias GPUs. O GLM-4.6V foca em raciocínio multimodal de alta qualidade com contexto longo e chamadas nativas de ferramentas/funções, enquanto o GLM-4.6V-Flash é uma variante 9B ajustada para implantações de menor latência e menor impacto; nosso novo vLLM Recipe traz configurações prontas para rodar, orientação multi-GPU e padrões voltados para produção. Se você está construindo serviços de inferência e quer GLM-4.6V na sua pilha, comece por aqui: