Alibaba Group & các đối tác công bố MMR1: Cách mạng hóa lý luận đa phương thức với ít dữ liệu hơn!
MMR1 giới thiệu Sampling Nhận thức Biến thiên (VAS) để tinh chỉnh RL ổn định. Giải quyết tối ưu hóa không ổn định & dữ liệu chất lượng cao khan hiếm. Phát hành các tập dữ liệu mở khổng lồ (~1.6M CoT, 15k RL QA) & các mô hình (3B, 7B, 32B) cho cộng đồng.
Google giới thiệu EmbeddingGemma!
Mô hình nhúng văn bản nhẹ này đạt hiệu suất SOTA trên MTEB với chỉ 300 triệu tham số. Nó vượt trội hơn các mô hình có kích thước gấp đôi và hoàn hảo cho các ứng dụng AI nhanh, hiệu quả trên thiết bị.
OpenBMB phát hành MiniCPM-V 4.5: Một cỗ máy MLLM hiệu quả
Mô hình 8B tham số này đạt được khả năng lý luận hình ảnh tiên tiến nhất, vượt trội hơn GPT-4o-latest và các mô hình lớn hơn với hiệu suất cách mạng.
Bộ tái mẫu 3D của nó cho phép hiểu video với FPS cao và OCR mạnh mẽ, ngay cả trên iPad của bạn.