Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Независимый анализ моделей ИИ и хостинг-провайдеров - выберите лучшую модель и поставщика API для вашего сценария использования
Cerebras демонстрировала свою способность хостить большие MoE на очень высоких скоростях на этой неделе, запустив конечные точки Qwen3 235B 2507 и Qwen3 Coder 480B с выходом >1,500 токенов/с
➤ @CerebrasSystems теперь предлагает конечные точки как для Qwen3 235B 2507 Reasoning, так и для Non-reasoning. Оба модели имеют 235B общих параметров с 22B активными.
➤ Qwen 3 235B 2507 Reasoning предлагает интеллект, сопоставимый с o4-mini (высокий) и DeepSeek R1 0528. Вариант Non-reasoning предлагает интеллект, сопоставимый с Kimi K2 и значительно превосходит GPT-4.1 и Llama 4 Maverick.
➤ Qwen3 Coder 480B имеет 480B общих параметров с 35B активными. Эта модель особенно сильна в агентном кодировании и может использоваться в различных инструментах кодирования агентов, включая Qwen3-Coder CLI.
Запуски Cerebras представляют собой первый случай, когда такой уровень интеллекта стал доступен на таких скоростях вывода и имеют потенциал для открытия новых случаев использования - например, использование модели рассуждения для каждого шага агента без необходимости ждать минуты.

23,61K
🇰🇷 LG недавно выпустила EXAONE 4.0 32B - он набрал 62 балла в Индексе Искусственного Интеллекта, что является самым высоким результатом для модели 32B на данный момент.
EXAONE 4.0 от @LG_AI_Research выпущен в двух вариантах: гибридная модель рассуждений 32B, для которой мы сообщаем результаты бенчмаркинга, и меньшая модель 1.2B, предназначенная для приложений на устройстве, которую мы еще не тестировали.
Вместе с недавним выпуском Solar Pro 2 от Upstage, приятно видеть, как корейские лаборатории ИИ присоединяются к США и Китаю в верхней части рейтингов интеллекта.
Ключевые результаты:
➤ 🧠 EXAONE 4.0 32B (Рассуждение): В режиме рассуждений EXAONE 4.0 набирает 62 балла в Индексе Искусственного Интеллекта. Это соответствует Claude 4 Opus и новой Llama Nemotron Super 49B v1.5 от NVIDIA, и всего на 1 балл меньше, чем Gemini 2.5 Flash.
➤ ⚡ EXAONE 4.0 32B (Без рассуждений): В режиме без рассуждений EXAONE 4.0 набирает 51 балл в Индексе Искусственного Интеллекта. Он соответствует Llama 4 Maverick по уровню интеллекта, несмотря на то, что имеет всего ~1/4 от общего количества параметров (хотя активных параметров примерно в 2 раза больше).
➤ ⚙️ Выходные токены и многословие: В режиме рассуждений EXAONE 4.0 использовал 100M выходных токенов для Индекса Искусственного Интеллекта. Это больше, чем у некоторых других передовых моделей, но соответствует недавним тенденциям, когда модели рассуждений используют больше выходных токенов для "более глубокого мышления" - аналогично Llama Nemotron Super 49B v1.5, Grok 4 и Qwen3 235B 2507 Reasoning. В режиме без рассуждений EXAONE 4.0 использовал 15M токенов - это много для модели без рассуждений, но не так много, как у Kimi K2 с 30M.
Ключевые детали:
➤ Гибридное рассуждение: Модель предлагает возможность выбора между режимом 'рассуждений' и 'без рассуждений'.
➤ Доступность: В настоящее время размещается @friendliai и имеет конкурентоспособную цену (особенно по сравнению с проприетарными вариантами) от FriendliAI в $1 за 1M входных и выходных токенов.
➤ Открытые веса: EXAONE 4.0 - это модель с открытыми весами, доступная по Лицензионному Соглашению Модели ИИ EXAONE 1.2. Лицензия ограничивает коммерческое использование.
➤ Мультимодальность: Ввод и вывод только текстовые.
➤ Контекстное окно: 131k токенов.
➤ Параметры: 32B активных и общих параметров, доступных в 16-битной и 8-битной точности (это означает, что модель может работать на одном чипе H100 в полной точности).

41,34K
Объявляем о Лидерах Таблицы Музыкального Анализа Искусственного Интеллекта: с более чем 5 тыс. голосов, Suno v4.5 является ведущей моделью генерации музыки, за ней следует FUZZ-1.1 Pro от Riffusion.
Lyria 2 от Google занимает третье место в нашей таблице инструментальной музыки, а v1.5 Allegro от Udio занимает третье место в нашей таблице вокалов.
Инструментальная таблица выглядит следующим образом:
🥇 @SunoMusic V4.5
🥈 @riffusionai FUZZ-1.1 Pro
🥉 @GoogleDeepMind Lyria 2
@udiomusic v1.5 Allegro
@StabilityAI Stable Audio 2.0
@metaai MusicGen
Рейтинги основаны на голосах сообщества в различных жанрах и темах. Хотите увидеть свою тему в списке? Вы можете отправить темы в арену сегодня.
👇 Смотрите ниже таблицу вокалов и ссылку для участия!

21,96K
Изменение спроса на модели 2024-2025: Google (+49 пунктов), DeepSeek (+53 пункта) и xAI (+31 пункт) добились значительных успехов в доле спроса за последний год
@Google перешел от роли отстающего в области ИИ к лидеру ИИ с увеличением примерно в 2,5 раза доли респондентов, использующих или рассматривающих серию моделей Gemini. Ключевым фактором этого стало значительное улучшение интеллекта: Gemini 2.5 Pro теперь занимает 3-е место в нашем Индексе Искусственного Интеллекта, в то время как в начале 2024 года значительно отставал от OpenAI и Anthropic.
@deepseek_ai в первой половине 2024 года выпустил только DeepSeek 67B, модель, которая имела ограниченное применение и уступала Llama 3 70B. DeepSeek впервые увидел некоторый рост в конце 2024 года с выходом своей модели V2, а затем быстро завоевал популярность в начале 2025 года с моделями V3 и R1, которые вывели их на лидерство среди моделей с открытыми весами.
@xai выпустил свою первую модель Grok-1 в середине первой половины 2024 года и с тех пор быстро поднялся до лидерства в области интеллекта среди всех моделей с последовательными релизами, кульминируя в запуске Grok 4 на прошлой неделе.
Источник: Опрос по принятию ИИ от Artificial Analysis, первая половина 2025 года (отчет доступен на сайте Artificial Analysis)

388,83K
Поставщики Kimi K2: Groq обслуживает Kimi K2 на скорости >400 токенов/с, в 40 раз быстрее, чем API первого уровня Moonshot.
Поздравляем ряд поставщиков с быстрым запуском API для Kimi K2, включая @GroqInc, @basetenco, @togethercompute, @FireworksAI_HQ, @parasail_io, @novita_labs, @DeepInfra и, конечно, @Kimi_Moonshot. Это впечатляет, учитывая размер модели в 1 триллион параметров.
Groq выделяется своей молниеносной скоростью. DeepInfra, Novita и Baseten выделяются своими ценами, будучи единственными поставщиками, которые предлагают цены аналогичные или более низкие, чем у API первого уровня Moonshot.
Смотрите ниже для дальнейших сравнений между поставщиками. Мы ожидаем быстрого увеличения скорости у некоторых поставщиков, поскольку команды оптимизируют модель K2 - наши данные ниже показывают медианные скорости за последние 72 часа, но мы уже видим, что DeepInfra поднялся до 62 токенов/с в сегодняшних измерениях.

52,05K
Хотя Kimi k2 от Moonshot AI является ведущей моделью с открытыми весами без рассуждений в Индексе Искусственного Анализа, она выдает ~3 раза больше токенов, чем другие модели без рассуждений, размывая границы между рассуждением и нерсуждением.
Kimi k2 — это крупнейшая модель с открытыми весами на сегодняшний день — 1 триллион параметров с 32 миллиардами активных (это требует огромных 1 ТБ памяти в нативном FP8 для хранения весов). Мы имеем k2 на 57 месте в Индексе Искусственного Анализа, что является впечатляющим результатом, который ставит его выше моделей, таких как GPT-4.1 и DeepSeek V3, но ниже ведущих моделей рассуждений.
До сих пор существовало четкое различие между моделями рассуждений и моделями без рассуждений в наших оценках — определяемое не только тем, использует ли модель теги <reasoning>, но прежде всего использованием токенов. Медианное количество токенов, использованных для ответов на все оценки в Индексе Искусственного Анализа, примерно в 10 раз выше для моделей рассуждений, чем для моделей без рассуждений.
@Kimi_Moonshot's Kimi k2 использует ~3 раза больше токенов, чем медианная модель без рассуждений. Его использование токенов всего на 30% ниже, чем у Claude 4 Sonnet и Opus, когда они работают в режиме максимального бюджета расширенного мышления, и почти в три раза превышает использование токенов как у Claude 4 Sonnet, так и у Opus с отключенными рассуждениями.
Поэтому мы рекомендуем сравнивать Kimi k2 с Claude 4 Sonnet и Opus в их режимах максимального бюджета расширенного мышления, а не с оценками без рассуждений для моделей Claude 4.
Kimi k2 доступен на первом API @Kimi_Moonshot, а также на @FireworksAI_HQ, @togethercompute, @novita_labs и @parasail_io.
Смотрите ниже и на Искусственном Анализе для дальнейшего анализа 👇



60,39K
Новая Deep Research API от OpenAI стоит до ~$30 за вызов API! Эти новые конечные точки Deep Research API могут стать самым быстрым способом потратить деньги.
За 10 тестовых запросов глубоких исследований мы потратили $100 на o3 и $9.18 на o4-mini. Как же так получается, что расходы такие большие? Высокие цены и миллионы токенов.
Эти конечные точки являются версиями o3 и o4-mini, которые были обучены с использованием RL для задач глубоких исследований. Доступ через API позволяет использовать их как с веб-инструментом поиска OpenAI, так и с пользовательскими источниками данных через удаленные серверы MCP.
o4-mini-deep-research стоит в 5 раз дешевле, чем o3-deep-research. В наших тестовых запросах o4-mini также, похоже, использует меньше токенов - в итоге он оказался более чем в 10 раз дешевле по сравнению с нашими 10 тестовыми запросами.
Цены:
➤ o3-deep-research стоит $10 за миллион входных данных ($2.50 за кэшированные входные данные), $40 за миллион выходных данных
➤ o4-mini-deep-research стоит $2 за миллион входных данных ($0.5 за кэшированные входные данные), $8 за миллион выходных данных
Эти конечные точки значительно дороже стандартных конечных точек OpenAI o3 и o4-mini - их цены следующие:
➤ o3: $2 за миллион ($0.5 за кэшированные) входных данных, $8 за миллион выходных данных для o3
➤ o4-mini: $1.1 за миллион (0.275 за кэшированные) входных данных, $4.4 за миллион выходных данных.

37,04K
Black Forest Labs собирается создать поток новых стартапов с их моделью редактирования изображений с открытыми весами, выпущенной сегодня
- Виртуальная примерка станет в 10 раз лучше, но это только начало. Мы также увидим новые впечатления, когда люди начнут креативить с этими моделями (намного более обширными, чем фильтры Snapchat и Instagram)
- Модель всего 12B и может быть доработана на потребительском оборудовании
- Платформы, такие как @FAL, предлагают полную поддержку обучения LoRA
Благодарность @FAL за изображение ниже, у них отличное описание их предложения по доработке (ссылка ниже)

34,14K
Редактирование изображений теперь является открытым исходным кодом! Black Forest Labs только что выпустила модель редактирования изображений с открытыми весами, сопоставимую по производительности с проприетарными моделями.
@bfl_ml выпустила FLUX.1 Kontext [dev], модель редактирования изображений на 12B. Нам был предоставлен доступ до релиза, и мы тестировали ее в нашей Артificial Analysis Image Arena.
Мы независимо подтвердили, что она предлагает сопоставимую или превосходящую производительность по сравнению с рядом проприетарных моделей, включая Gemini 2.0 Flash от Google и Bagel от ByteDance. FLUX.1 Kontext [dev] лишь немного уступает собственным проприетарным моделям Black Forest Labs и GPT-4o от OpenAI.
Также доступны хостинг-API на @FAL, @replicate, @togethercompute.
Ссылка ниже на веса на HuggingFace 👐

24,58K
Топ
Рейтинг
Избранное
В тренде ончейн
В тренде в Х
Самые инвестируемые
Наиболее известные