🎉Gefeliciteerd aan het @Zai_org team met de lancering van GLM-4.6V en GLM-4.6V-Flash — met ondersteuning voor day-0 in vLLM Recipes voor teams die ze op hun eigen GPU's willen draaien. GLM-4.6V richt zich op hoogwaardige multimodale redenering met lange context en native tool/functie-aanroepen, terwijl GLM-4.6V-Flash een 9B variant is die is afgestemd op lagere latentie en kleinere implementaties; onze nieuwe vLLM Recipe levert kant-en-klare configuraties, multi-GPU begeleiding en productiegerichte standaardinstellingen. Als je inferentiediensten bouwt en GLM-4.6V in je stack wilt, begin hier: