トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
AIモデルとホスティングプロバイダーの独立した分析 - ユースケースに最適なモデルとAPIプロバイダーを選択します
Cerebras は今週、大規模な MoE を非常に高速でホストする能力を実証しており、Qwen3 235B 2507 および Qwen3 Coder 480B エンドポイントを >1,500 出力トークン/秒で起動しました
➤ @CerebrasSystems は、Qwen3 235B 2507 推論と非推論の両方のエンドポイントを提供するようになりました。どちらのモデルも合計パラメータが 235B で、アクティブは 22B です。
➤ Qwen 3 235B 2507 Reasoning は、o4-mini (高) および DeepSeek R1 0528 に匹敵するインテリジェンスを提供します。Non-reasoning バリアントは、Kimi K2 に匹敵し、GPT-4.1 や Llama 4 Maverick をはるかに上回るインテリジェンスを提供します。
➤ Qwen3 Coder 480B には合計 480B のパラメータがあり、35B がアクティブです。このモデルはエージェントコーディングに特に強力で、Qwen3-Coder CLI を含むさまざまなコーディングエージェントツールで使用できます。
Cerebrasの発売は、このレベルのインテリジェンスがこのような出力速度で初めてアクセスできるようになったことを意味し、エージェントの各ステップに数分待たずに推論モデルを使用するなど、新しいユースケースを解き放つ可能性を秘めています。

23.61K
🇰🇷 LGは最近、EXAONE 4.0 32Bを発売しましたが、人工分析知能指数で62点を獲得し、32Bモデルとしてはこれまでで最高点となった
@LG_AI_Research の EXAONE 4.0 は、ここでベンチマーク結果を報告している 32B ハイブリッド推論モデルと、まだベンチマークしていないオンデバイス アプリケーション向けに設計された小型の 1.2B モデルの 2 つのバリエーションでリリースされています。
Upstage の最近の Solar Pro 2 リリースと並行して、韓国の AI ラボが米国と中国に加わり、インテリジェンス チャートのトップ近くにランクインするのはエキサイティングです。
主な結果:
➤ 🧠 EXAONE 4.0 32B (推論): 推論モードでは、EXAONE 4.0 は人工分析知能指数で 62 のスコアを獲得しています。これは、Claude 4 OpusとNVIDIAの新しいLlama Nemotron Super 49B v1.5に匹敵し、Gemini 2.5 Flashにわずか1ポイント差です
➤ ⚡ EXAONE 4.0 32B (非推論): 非推論モードでは、EXAONE 4.0 は人工分析知能指数で 51 のスコアを獲得します。合計パラメータは~1/4しかないにもかかわらず、知能の点ではラマ4マーベリックに匹敵します(ただし、アクティブなパラメータは~2倍です)。
➤ ⚙️ 出力トークンと冗長性: 推論モードでは、EXAONE 4.0 は人工分析知能インデックスに 100M 出力トークンを使用しました。これは他のフロンティアモデルよりも高いですが、Llama Nemotron Super 49B v1.5、Grok 4、Qwen3 235B 2507 Reasoningと同様に、より多くの出力トークンを使用して「もっと考える」推論モデルの最近の傾向と一致しています。非推論モードでは、EXAONE 4.0 は 15M トークンを使用しました - 非推論者としては高かったが、Kimi K2 の 30M ほど高くはありません。
主な詳細:
➤ハイブリッド推論:このモデルは、「推論」モードと「非推論」モードの間のオプションを提供します
➤ 可用性: 現在 @friendliai によってホストされており、FriendliAI によって 1M の入出力トークンあたり 1 ドルで競争力のある価格 (特に独自のオプションと比較して) で提供されています
➤ オープンウェイト: EXAONE 4.0 は、EXAONE AI モデル ライセンス契約 1.2 に基づいて利用可能なオープンウェイト モデルです。ライセンスは商用利用を制限しています。
➤マルチモダリティ:テキストのみの入力と出力
➤コンテキストウィンドウ:131kトークン
➤ パラメータ: 32B のアクティブおよび合計パラメータ、16 ビットおよび 8 ビットの精度で利用可能 (モデルを単一の H100 チップ上でフル精度で実行できることを意味します)

41.35K
人工分析音楽アリーナリーダーボードの発表:>5k票を獲得したSuno v4.5は、RiffusionのFUZZ-1.1 Proがそれに続く主要な音楽生成モデルです。
Google の Lyria 2 はインストゥルメンタル リーダーボードで 3 位、Udio の v1.5 Allegro はボーカル リーダーボードで 3 位です。
インストゥルメンタルリーダーボードは次のとおりです。
🥇 @SunoMusic V4.5
🥈 @riffusionai ファズ-1.1プロ
🥉 @GoogleDeepMindリリア2
@udiomusic v1.5 Allegro
@StabilityAI安定したオーディオ2.0
@metaai MusicGen
ランキングは、さまざまなジャンルやプロンプトにわたるコミュニティの投票に基づいています。プロンプトを特集したいですか?今すぐアリーナでプロンプトを送信できます。
👇 ボーカルリーダーボードと参加リンクは以下をご覧ください!

21.96K
2024 年から 2025 年のモデル需要の変化: Google (+49pts)、DeepSeek (+53pts)、xAI (+31pts) は、過去 1 年間で需要シェアの大幅な増加を達成しました
@Googleは、Gemini モデル シリーズを使用または検討している回答者の割合が ~2.5 倍増加し、AI の遅れから AI リーダーに移行しました。その主な原動力は、Googleがインテリジェンスで大幅な進歩を遂げたことです:Gemini 2.5 Proは、2024年初頭にはOpenAIやAnthropicに大きく遅れをとっていたのに対し、人工分析知能指数で#3にランクインしています。
@deepseek_ai 2024 年上半期には、採用が限定的で、Llama 3 70B のパフォーマンスを下回るモデルである DeepSeek 67B のみをリリースしました。DeepSeek は、2024 年後半に V2 モデルのリリースで最初にある程度の普及が見られ、その後 2025 年初頭に V3 および R1 モデルで急速に採用され、オープンウェイト モデルの中でリーダーになりました。
@xai は 2024 年上半期半ばに最初のモデル Grok-1 をリリースし、それ以来、連続したリリースですべてのモデルでインテリジェンスのリーダーシップに急速に上り詰め、先週の Grok 4 の発売で最高潮に達しました。
出典:Artificial Analysis AI Adoption Survey H1 2025 (レポートは Artificial Analysis の Web サイトで入手可能)

388.84K
Kimi K2プロバイダー:Groqは、MoonshotのファーストパーティAPIよりも40倍速い>400出力トークン/秒でKimi K2を提供しています
@GroqInc、@basetenco、@togethercompute、@FireworksAI_HQ、@parasail_io、@novita_labs、@DeepInfra、そしてもちろん@Kimi_Moonshotなど、Kimi K2のAPIを迅速に立ち上げた多くのプロバイダーにおめでとうございます。これは、合計 1 兆個のパラメーターというモデルのサイズを考えると、印象的です。
Groqは、超高速で際立っています。DeepInfra、Novita、Basetenは、MoonshotのファーストパーティAPIと同等またはそれ以上に安い価格設定をしている唯一のプロバイダーであり、その価格設定で際立っています。
プロバイダー間の詳細な比較については、以下を参照してください。チームがK2モデルに最適化するにつれて、一部のプロバイダーで速度が急速に向上すると予想しています - 以下の数値は過去72時間の速度の中央値を示していますが、今日の測定ではすでにDeepInfraが最大62トークン/秒に跳ね上がっていることがわかります

52.06K
Moonshot AIのKimi k2は、Artificial Analysis Intelligence Indexの主要なオープンウェイト非推論モデルですが、他の非推論モデルよりも~3倍多くのトークンを出力し、推論と非推論の境界線を曖昧にしています
Kimi k2は、これまでで最大の主要なオープンウェイトモデルであり、合計パラメータが1Tで、32Bがアクティブです(これは、ウェイトを保持するためにネイティブFP8で1TBの大量のメモリが必要です)。Artificial Analysis Intelligence Indexではk2が57で、GPT-4.1やDeepSeek V3などのモデルよりも優れたスコアですが、主要な推論モデルには遅れをとっています。
これまで、私たちの評価では、推論モデルと非推論モデルの間に明確な区別がありました - モデルがタグを使用するかどうかだけでなく<reasoning>、主にトークンの使用によって定義されます。Artificial Analysis Intelligence Index のすべての評価に回答するために使用されるトークンの数の中央値は、推論モデルの方が非推論モデルよりも ~10 倍高くなっています。
@Kimi_MoonshotのKimi k2は、中央値の非推論モデルが使用するトークンの数の~3倍を使用します。そのトークン使用量は、最大予算の拡張思考モードで実行すると、Claude 4 SonnetおよびOpusよりも最大30%低いだけで、推論をオフにした場合のClaude 4 SonnetおよびOpusの両方のトークン使用量のほぼ3倍です。
したがって、Kimi k2 は、Claude 4 モデルの非推論スコアではなく、最大予算の拡張思考モードで Claude 4 Sonnet および Opus と比較することをお勧めします。
Kimi k2 は、@Kimi_Moonshot のファーストパーティ API のほか、@FireworksAI_HQ、@togethercompute、@novita_labs、@parasail_io で利用できます。
詳細な分析👇については、以下とArtificial Analysisを参照してください



60.4K
OpenAIの新しいDeep Research APIは、API呼び出しごとに最大~30ドルの費用がかかります。これらの新しいDeep Research APIエンドポイントは、お金を使うための新しい最速の方法かもしれません
10のディープリサーチテストクエリ全体で、o3に100ドル、o4-miniに9.18ドルを費やしました。なぜコストはそんなに大きくなるのですか?高価格と数百万のトークン。
これらのエンドポイントは、o3 と o4-mini のバージョンで、詳細な研究タスク用に RL されています。APIによる可用性により、OpenAIのWeb検索ツールとリモートMCPサーバー経由のカスタムデータソースの両方で使用できます。
O4-mini-deep-researchの価格は、O3-deep-researchの5倍です。私たちのテストクエリでは、o4-miniはトークンの使用量も少ないようです - 10のテストクエリ全体で合計で10倍以上安くなっています。
プライシング:
➤ o3-deep-researchの価格は、$10 /Mインプット($2.50キャッシュインプット)、$40 /Mアウトプットです。
➤ o4-mini-deep-research の価格は $2 /M 入力 ($0.5 キャッシュ入力)、$8 /M 出力です
これらのエンドポイントはどちらも、OpenAIの標準的なo3およびo4-miniエンドポイントよりも大幅に高価です。
➤ o3: $2 /M ($0.5 キャッシュ) 入力、o3 の $8/M 出力
➤ o4-mini: $1.1 /M (0.275 キャッシュ) 入力、$4.4 /M 出力

37.05K
Black Forest Labsは、本日リリースされたオープンウェイト画像編集モデルを使用して、新しいスタートアップの洪水を作成する予定です
- バーチャル試着は10倍良くなりますが、それは始まりに過ぎません。また、人々がこれらのモデル(SnapchatやInstagramのフィルターよりもはるかに広範)で創造性を発揮するにつれて、新しい体験も見られるでしょう
- モデルはわずか12Bで、民生用ハードウェアで微調整できます
- @FALのようなプラットフォームは、LoRAトレーニングを全面的にサポートします
下の画像の@FALの功績により、彼らは微調整の提供について素晴らしい記事を書いています(以下のリンク)

34.14K
画像編集がオープンソースになりました!Black Forest Labsは、独自のモデルに匹敵するパフォーマンスのオープンウェイト画像編集モデルをリリースしました
@bfl_ml は 12B 画像編集モデルの FLUX.1 Kontext [dev] をリリースした。プレリリースアクセスが許可され、Artificial Analysis Image Arenaでテストしています。
GoogleのGemini 2.0 FlashやByteDanceのBagelなど、多くの独自モデルと同等または優れたパフォーマンスを提供することを独自に検証しました。FLUX.1 Kontext [dev]は、Black Forest Labs独自のモデルとOpenAIのGPT-4oのみの後塵を拝しています。
ホスト型 API は、@FAL、@replicate、@togethercompute でも使用できます
HuggingFace 👐のウェイトへのリンクは以下にあります

24.59K
トップ
ランキング
お気に入り
Trending onchain
Trending on X
Recent top fundings
Most notable