トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

MilkRoadAI
AI投資についてより賢くなりましょう。
AI のインフラストラクチャとアプリレイヤー全体で、史上最大の技術変化を活用します。
By @MilkRoad
スクロールをやめて、すぐにこの動画を見て保存してください
S&Pのダニエル・イェーギンが厳しい現実を突きつけた。
電化には銅を50%多く必要としていますが、新しい鉱山は稼働までに17年かかります。
世界的な不足は今や「避けられない」とされています。

MilkRoadAI20時間前
Nvidiaは忘れてください。暗号通貨のことは忘れてください(この動画を保存してください)。
2026年の最も賢い取引は石かもしれません。
チャマスは銅のスーパーサイクルについて恐ろしいほど単純な主張をしています:
70%の供給不足が迫っており、プランBはありません。
NVIDIAはEarth 2を発表しました。これは、かつて数十億ドルのスーパーコンピュータが必要だったことを実現する無料のオープンソースAI気象予報プラットフォームです。
彼らは天気予報のために連携する3つのAIモデルを公開しました。
生の衛星データの処理から15日間の世界予報の提供まで、すべてGPU上で数分で動作します。
各パーツの役割は以下の通りです。
データ同化は、衛星、気象気球、地上観測局からの観測データを数秒で利用可能な気象データに変換します(以前は数時間かかりました)。
Nowcastingは今後0〜6時間の激しい天候予報を担当します。
初めて、AIが従来の物理ベースの予報を上回り、嵐の予測を成功させました。
Medium Rangeは15日間の世界予測を提供し、多くの変数でGoogle DeepMindのGenCastを上回ります。
これらのモデルを組み合わせると、数分で予測が出ます。
すべてがオープンソースなので、誰でもモデルをダウンロードし、自分のデータでカスタマイズできます。
NVIDIAの本当の天才は、ソフトウェアを売っているわけではないということです。
彼らはコンピュートを売るためにソフトウェアを無料で提供しているのです。
Earth 2を使うすべての組織は、それを動かすためにNVIDIA GPUを必要としています。
これは素晴らしいエコシステム戦略です。財団を無料でし、インフラを所有することです。
養子縁組はすでに進行中です。
TotalEnergies、Eni、Southwest Power Pool、そして米国国立気象局は現在、これらのモデルを生産しています。
イスラエル気象局は従来の手法と比べて計算時間を90%短縮しました。
市場の機会は非常に大きいです。
気象予報の価値は37億2,000万ドルで、年間7%の成長を遂げていますが、AIベースの気象モデリングは爆発的に成長しており、2024年の1億3,560万ドルから2034年にはほぼ10億ドルに成長すると予想されています。
再生可能エネルギー企業にとっては、予測コストを大幅に削減し、小規模事業者にとって経済的な方法となります。
発展途上国にとっては、数百万ドルのインフラなしでプロフェッショナルな天気予報を行うことを意味します。
保険や金融会社にとって、より良い天候データはより良いリスクモデルを意味します。
NVIDIAは、計算層を所有する方が勝つと賭けています。
養子縁組のサインを見ると、彼らの言う通りです。

Evan9時間前
Nvidia$NVDA最近こう投稿しました:
「私たちは、世界初の完全オープンで加速されたAI気象スタックであるNVIDIA Earth-2オープンモデルファミリーを誇りを持って発表します」
マイクロソフトは第2世代のカスタムAIチップであるMaia 200を発表しました。
これはクラウドコンピューティングの軍拡競争における本当に重要な瞬間です。
マイクロソフトのMaia 200は、マイクロソフトが設計した特殊なチップですが、TSMCが最先端の3ナノメートルプロセス技術を用いて製造しています。
こう考えてみてください。もしNvidiaが既製の車用エンジンを売っているなら、Microsoftは自社のエンジンを自社で作っているのです。
このチップはAI推論、つまりAIモデルを実際に実行して応答を生成するプロセスのために特別に設計されており、ゼロから訓練するのではありません。
このチップは2026年1月26日からアイオワ州のマイクロソフトデータセンターで稼働を開始し、その後アリゾナ州への展開が予定されています。
これらのチップは4枚ずつ各サーバーで連携し、独自の技術ではなく標準的なイーサネットケーブルで接続されているため、Nvidiaの手法と比べてコストと複雑さが削減されています。
MicrosoftはすでにMaia 200を使ってOpenAIのGPT-5.2モデルをAzureおよびMicrosoft 365 Copilotで動かしています。
マイクロソフトは、Maia 200がAmazonのTrainiumチップの3倍の性能を提供し、GoogleのTPUを重要なベンチマークで上回ると主張しています。
さらに重要なのは、マイクロソフトが現在のハードウェアフリートより1ドルあたり30%のパフォーマンス向上を主張していることです。
数十万台のチップを管理するクラウド企業にとって、その効率化の利点は時間をかけて数十億ドルにつながります。
このチップは216GBの超高速メモリと7TB/sのメモリ帯域幅を搭載しています。
マイクロソフトはこれを「Nvidiaへの依存を減らす」と明確に位置づけており、それが本当の話です。
Nvidiaは現在、AIアクセラレーター市場の約85%を支配しており、ハードウェア販売の総利益率は73〜75%です。
しかし、Nvidiaにとっての問題は、Microsoft、Meta、Amazon、Googleという4大ハイパースケーラーが現在、Nvidiaの収益の40〜50%を占めており、これらすべてがカスタムAIチップを本番環境で導入していることです。
Maia 200が扱う推論は、今後の長期的なAI計算需要の約80%を占めます。
もしハイパースケーラーが独自の推論チップを開発すれば、NvidiaはAIチップ市場の将来の成長の大部分へのアクセスを失う可能性があります。
NvidiaのCUDAとソフトウェア最適化に基づく堀は依然として強力ですが、推論ワークロードは速度よりもトークンあたりのコストを重視しています。
Maia 200の30%のコスト優位性は、トレーニング分野でNvidiaが優位であっても、推論タスクのワークロードを徐々にNvidiaから移す可能性があります。
これはAIインフラにおける垂直統合の勝利です。
マイクロソフトは、その上に動作する全スタック、シリコン、ソフトウェア、ネットワーク、冷却システム、アプリケーションを管理しています。
このエンドツーエンドの管理とOpenAIのワークロードに関する直接的な洞察が組み合わさり、マイクロソフトは競合他社が真似できない優位性をもたらしています。

The Kobeissi Letter8時間前
速報:マイクロソフトは$MSFT、Nvidiaへの依存を減らすためにMaia 200 AIチップの発売を発表。
このチップは台湾半導体製造株式会社(台湾半導体製造$TSM)によって製造され、アイオワ州のマイクロソフトデータセンターで発売されます。
3
トップ
ランキング
お気に入り