Alibaba Group und Partner präsentieren MMR1: Revolutionierung des multimodalen Denkens mit weniger Daten!
MMR1 führt Variance-Aware Sampling (VAS) für stabiles RL-Fine-Tuning ein. Bekämpft instabile Optimierung und knappe hochwertige Daten. Veröffentlichung massiver offener Datensätze (~1,6M CoT, 15k RL QA) und Modelle (3B, 7B, 32B) für die Community.
Google stellt EmbeddingGemma vor!
Dieses leichte, offene Text-Einbettungsmodell erreicht mit nur 300 Millionen Parametern eine SOTA-Leistung auf MTEB. Es übertrifft Modelle, die doppelt so groß sind, und ist perfekt für schnelle, effiziente KI-Anwendungen auf Geräten.
OpenBMB veröffentlicht MiniCPM-V 4.5: Eine effiziente MLLM-Powerhouse
Dieses 8B-Parameter-Modell erreicht eine Spitzenleistung im visuellen Denken und übertrifft GPT-4o-latest sowie größere Modelle mit revolutionärer Effizienz.
Sein 3D-Resampler ermöglicht das Verständnis von hoch-FPS-Videos und robustes OCR, selbst auf deinem iPad.