メインコンテンツへスキップ
マーケット
Meme Pump
トラッカー
シグナル
リーダーボード
スワップ
ポートフォリオ
紹介
さらに見る
商品
DeFi
マケプレ
セキュリティ
開発者向け
X Layer
X Layer について学ぶ
X Layer エクスプローラー
チェーン間取引
開発者向けテクニカルドキュメント
テストネットフォーセット
GitHub
ウォレット API
ウォレット API を発見する
API ドキュメント
API キーを管理する
ブロックチェーンエクスプローラー
DAppでウォレットを連携する
Boost
X Launch
参加してトークンを獲得しよう
X キャンペーン
参加して報酬を獲得しよう
報酬センター
ボーナスとエアドロップを受け取る
アラート
言語
通貨
色の好み
OKX ウォレットをダウンロード
Web3 の詳細
お知らせ
戻る
日本語
简体中文
繁體中文
English
Tiếng Việt
Русский
Español (Latinoamérica)
Bahasa Indonesia
Français
Deutsch
Italiano
Polski
Čeština
Română
Português (Portugal)
Português (Brasil)
Українська
Español (España)
Nederlands
العربية
Norsk (bokmål)
Suomi
Svenska
Türkçe
戻る
戻る
詳しく知る
サポートセンター
トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
Hosico
+17.47%
USELESS
+18.51%
IKUN
+3.44%
gib
+1.87%
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
Bonk
+11.18%
ALON
-9.71%
LAUNCHCOIN
+4.5%
GOONC
+3.1%
KLED
+6.62%
#
Boop.Fun leading the way with a new launchpad on Solana.
BOOP
+0.55%
Boopa
+4.03%
PORK
0.00%
Profile
vLLM
vLLM
2025年12月31日
Qwen-Image-2512のリリース、おめでと@Alibaba_Qwenうございます!🎉 vLLM-OmniでのDay-0サポートを発表できることを大変嬉しく思います。このSOTAオープンソース画像モデルを最適化されたパイプラインアーキテクチャで即座に提供できます。 続きを読む: 👇 以下でその様子をご覧ください:
Qwen
2025年12月31日
🎁 Qwenからの新年の贈り物 — Qwen-Image-2512 がこちらです。 🚀 12月にQwen-Imageへのアップグレードを行った。ちょうど新年に合わせて。 ✨ 新しい点: ・よりリアルな人間 — 「AIの見た目」が大幅に減り、顔のディテールが豊かになります ・より細かい自然の肌理 — より鮮明な風景、水、毛皮、素材 ・より強力なテキストレンダリング — より良いレイアウト、テキストと画像の正確性の向上 🏆 AI Arenaで10,000+のブラインドラウンドでテストされたQwen-Image-2512は、クローズドソースシステムと競争力を保ちつつ、最強のオープンソース画像モデルとして評価されています。 👉 今すぐQwenチャットで試してみてください: 🤗 ハグフェイス: 📦 モデルスコープ: 💻 GitHub: 📝 ブログ: 🤗 ハグフェイスデモ: 📦 モデルスコープデモ: ✨API: 🎆 より良い写真で新年を始めましょう。
21
vLLM
2025年12月19日
スケーリングMoE推論はしばしば通信+KVキャッシュに縛られます。エキスパート並列性を押し出すと、デコードは集団や不均衡に支配され、プリフィルの遅れがEPグループ全体を停滞させることがあります。 マルチノードH200(Coreweave、Infiniband + ConnectX-7)におけるvLLMワイドEPの新しいコミュニティベンチマーク結果: - H200 GPUあたり持続約2.2kトークン/秒(以前の約1.5kトークン/秒から増加) この記事では、これを可能にする重要な要素を共有します。 - DeepSeekスタイルのMoE + MLA KV効率のためのワイドEP(「--enable-expert-parallel') - DeepEPオール・トゥ・オール、デュアルバッチオーバーラップ(DBO)、エキスパート並列負荷分散(EPLB) - LLM-d、NVIDIA Dynamo、Ray Serve LLMを介したプリフィル/デコードの分解および展開パス
191
vLLM
2025年12月18日
vLLMは同じGPUプラットフォームでさらに高い推論性能を提供します。 わずか1か月で、私たちはNVIDIAと協力し、Blackwell@nvidia GPUあたり最大スループットを最大33%引き上げ、トークンごとのコストを大幅に削減しました。さらに、PyTorchの深い統合とコラボレーションによって、最もレイテンシに敏感なユースケースでさらに高いピーク速度を実現しました。
235
トップ
ランキング
お気に入り