Google introducerar EmbeddingGemma!
Den här lätta, öppna textinbäddningsmodellen uppnår SOTA-prestanda på MTEB med bara 300 miljoner parametrar. Den överträffar modeller som är dubbelt så stora och är perfekt för snabba, effektiva AI-applikationer på enheten.
OpenBMB släpper MiniCPM-V 4.5: Ett effektivt MLLM-kraftpaket
Denna 8B-parametermodell uppnår toppmodernt visuellt resonemang och överträffar GPT-4o-senaste och större modeller med revolutionerande effektivitet.
Dess 3D-Resampler möjliggör videoförståelse med hög FPS och robust OCR, även på din iPad.
Qwen har precis släppt Qwen3Guard-Gen-8B på Hugging Face
Den här nya säkerhetsmodereringsmodellen erbjuder allvarlighetsgrad i tre nivåer och flerspråkigt stöd för AI-innehåll.