🚀 GLM-4.6V von @Zai_org wurde gerade auf Chutes 🪂 veröffentlicht. 106B Parameter. 128K Kontext. Native, visionsgesteuerte Funktionsaufrufe. Dieses Modell sieht nicht nur, es handelt. Von pixelgenauer HTML-Replikation bis hin zum multimodalen Dokumentenverständnis, es definiert neu, was Vision-Modelle leisten können. Probier es jetzt aus :