🎉Grattis till @Zai_org-teamet med lanseringen av GLM-4.6V och GLM-4.6V-Flash — med day-0-serveringsstöd i vLLM-recept för team som vill köra dem på sina egna GPU:er. GLM-4.6V fokuserar på högkvalitativ multimodal resonemang med lång kontext och inbyggd verktygs-/funktionsanrop, medan GLM-4.6V-Flash är en 9B-variant anpassad för lägre latens och mindre användning; vår nya vLLM-recept levererar färdiga konfigurationer, multi-GPU-styrning och produktionsinriktade standardinställningar. Om du bygger inferenstjänster och vill ha GLM-4.6V i din stack, börja här: