🎉Gratulacje dla zespołu @Zai_org z okazji uruchomienia GLM-4.6V i GLM-4.6V-Flash — z wsparciem serwisowym od dnia 0 w przepisach vLLM dla zespołów, które chcą uruchomić je na własnych GPU. GLM-4.6V koncentruje się na wysokiej jakości rozumowaniu multimodalnym z długim kontekstem i natywnym wywoływaniem narzędzi/funkcji, podczas gdy GLM-4.6V-Flash to wariant 9B dostosowany do niższej latencji i mniejszych wdrożeń; nasz nowy przepis vLLM dostarcza gotowe do uruchomienia konfiguracje, wskazówki dotyczące wielu GPU oraz domyślne ustawienia z myślą o produkcji. Jeśli budujesz usługi inferencyjne i chcesz mieć GLM-4.6V w swoim stosie, zacznij tutaj: