Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Mistral щойно представила свою нову модель з великими відкритими вагами Mistral Large 3 (всього 675B, активна 41B), а також набір із трьох моделей Ministral (3B, 8B, 14B)
Mistral випустила варіанти Instruct (без логіки) для всіх чотирьох моделей, а також реабілітні варіанти трьох моделей Ministral. Усі моделі підтримують мультимодальні входи і сьогодні доступні з ліцензією Apache 2.0 на @huggingface. Ми оцінили варіанти Mistral Large 3 та Instruct трьох моделей Ministral перед запуском.
Модель Mistral з найвищим балом у Artificial Analysis Intelligence Index залишається власною Magistral Medium 1.2, запущеною кілька місяців тому у вересні — це пов'язано з логікою, яка дає моделям значну перевагу у багатьох оцінюваннях, які ми використовуємо. Mistral повідомляє, що версія Mistral Large 3 вже перебуває у тренуванні, і ми з нетерпінням чекаємо можливості її оцінити найближчим часом!
Ключові моменти:
➤ Великі та малі моделі: з загальною кількістю 675B і активним 41B, Mistral Large 3 — це перша відкрита модель Mistral із сумішшю експертів з часів Mixtral 8x7B та 8x22B наприкінці 2023 — на початку 2024 року. Релізи Ministral насичені варіантами параметрів 3B, 8B і 14B
➤ Значне зростання інтелекту, але не серед провідних моделей (включно з пропрієтарними): Mistral Large 3 є значним покращенням порівняно з попереднім Mistral Large 2, з підвищенням індексу інтелекту на +11 пунктів до 38. Однак Large 3 все ще відстає від провідних моделей власного мислення та нелогічного мислення
➤ Універсальні малі моделі: моделі Ministral випускаються з варіантами Base, Instruct та Reasoning — ми протестували лише варіанти Instruct перед релізом, які отримали індекс 31 (14B), 28 (8B) і 22 (3B). Це ставить Ministral 14B попереду попереднього Mistral Small 3.2, маючи на 40% менше параметрів. Ми працюємо над оцінкою варіантів мислення і незабаром поділимося їхніми результатами інтелекту.
➤ Мультимодальні можливості: усі моделі у релізі підтримують текстові та зображені введення — це суттєва відмінність для Mistral Large 3, оскільки мало моделей з відкритими вагами в цьому класі розмірів підтримують введення зображень. Довжина контексту також збільшується до 256k, що дозволяє виконувати завдання з більшим введенням.
Ці нові моделі від Mistral не є кроком відмінності від змагань у відкритих вагах, але демонструють міцну базу продуктивності з можливостями зору. Варіанти Ministral 8B і 14B пропонують особливо захопливу продуктивність для свого розміру, і нам цікаво побачити, як спільнота використовує та розвиватиме ці моделі.
На момент запуску нові моделі доступні для безсерверного виведення на @MistralAI та низці інших провайдерів, включно з @awscloud Bedrock, @Azure AI Foundry, @IBMwatsonx, @FireworksAI_HQ, @togethercompute та @modal.

Mistral Large 3 слідує за межами, але примітно є однією з найрозумніших мультимодальних моделей відкритих ваг без логіки. Останні моделі від DeepSeek (v3.2) та Moonshot (Kimi K2) продовжують підтримувати лише текстовий вхід і вивод.

Завдяки невеликому розміру релізи Ministral демонструють солідне співвідношення інтелекту та вартості, завершуючи оцінки Index за значно нижчою вартістю, ніж аналогічні моделі, такі як малі моделі сімейства Qwen3 — особливо VL-варіанти, які підтримують введення зображень, такі як Ministral.

Моделі Міністерства особливо диференційовані для завдань, що потребують введення зображень, та моделі без логіки. Усі три розміри є суттєвим покращенням порівняно з сімейством Gemma 3 від Google (раніше популярним для малих мультимодальних моделей) і конкурують із нещодавніми релізами Alibaba Qwen3 VL.

Magistral Medium 1.2 залишається провідною моделлю Mistral за індексом інтелігії штучного аналізу.

Для подальшого аналізу цих нових моделей і постачальників у міру їх появи дивіться наші сторінки моделей про штучний аналіз:
Містраль Лардж 3:
Міністерство 14B:
Міністерство 8B:
8,17K
Найкращі
Рейтинг
Вибране

