🎉GLM-4.6VおよびGLM-4.6Vフラッシュの@Zai_orgチームのリリース、おめでとうございます。vLLMレシピのサポートは、自社GPUで実行したいチーム向けに、デイ0からサポートが始まります。 GLM-4.6Vは高品質なマルチモーダル推論と長いコンテキストとネイティブのツール/関数呼び出しに焦点を当てており、GLM-4.6V-Flashは低遅延と小型のフットプリント展開に最適化された9Bバリアントです。新しいvLLM Recipeは、すぐに実行可能な設定、マルチGPU対応のガイダンス、そして本番環境を重視したデフォルトを提供できます。 推論サービスを構築し、GLM-4.6Vをスタックに加えたいなら、ここから始めてください: