Meta vừa phát hành MobileLLM-R1
một mô hình suy luận biên với ít hơn 1B tham số
Tăng hiệu suất 2×–5× so với các mô hình mã nguồn mở hoàn toàn khác: MobileLLM-R1 đạt độ chính xác MATH cao hơn ~5× so với Olmo-1.24B, và ~2× so với SmolLM2-1.7B.
Chỉ sử dụng 1/10 số token tiền huấn luyện so với Qwen: đạt hoặc vượt qua độ chính xác của Qwen3 trên nhiều tiêu chuẩn suy luận trong khi chỉ huấn luyện trên 4.2T token (chỉ 11.7% của 36T token của Qwen3).