Alibaba Group и партнеры представляют MMR1: Революция в многомодальном рассуждении с меньшими объемами данных!
MMR1 вводит выборку с учетом дисперсии (VAS) для стабильной донастройки RL. Решает проблемы нестабильной оптимизации и нехватки качественных данных. Выпускает огромные открытые наборы данных (~1,6M CoT, 15k RL QA) и модели (3B, 7B, 32B) для сообщества.
Google представляет EmbeddingGemma!
Эта легковесная модель встраивания текста с открытым исходным кодом достигает SOTA производительности на MTEB с всего лишь 300M параметров. Она превосходит модели вдвое большего размера и идеально подходит для быстрых, эффективных приложений ИИ на устройствах.
OpenBMB выпускает MiniCPM-V 4.5: мощный MLLM с высокой эффективностью
Эта модель с 8 миллиардами параметров достигает передового уровня визуального рассуждения, превосходя GPT-4o-latest и более крупные модели с революционной эффективностью.
Ее 3D-ресемплер обеспечивает понимание видео с высокой частотой кадров и надежное распознавание текста, даже на вашем iPad.