Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Während der CES-Konferenz wurde die neu eingeführte Rubin-Architektur von NVIDIA zum Gesprächsthema auf dem Markt. Sie stellt einen bedeutenden Durchbruch neben der MOE-Architektur dar und wurde speziell für die Ära der Agentic AI entwickelt. Ich habe mir das genauer angesehen und tatsächlich das Gefühl von Huang's "Selbstrevolution" gespürt:
1) Früher profitierte NVIDIA von den Vorteilen der GPU-Hardware und nutzte die Phase, in der große KI-Unternehmen massenhaft Rechenleistung für das Training großer Modelle einkauften. Damals war die Logik einfach: Wer die meisten Grafikkarten hatte, konnte die besten Modelle trainieren.
Aber jetzt hat sich der KI-Krieg vom „Rechenleistung“-Schlachtfeld auf das „Inference“-Feld verlagert, insbesondere mit dem Aufkommen der Agentic-Ära, in der KI hochfrequente, mehrstufige und extrem lange Kontexte verarbeiten muss.
In dieser Phase haben die Modellparameter oft Billionen, und die Datenübertragungsrate ist enorm. Wenn die GPU auch noch so schnell rechnet, wenn der Speicher die Daten nicht schnell genug überträgt, läuft die GPU leer. Das ist die „Speicherkraftwand“. Mit anderen Worten, es reicht nicht mehr aus, nur viele Grafikkarten zu haben; es braucht auch viel Speicher und Bandbreite, um dies zu unterstützen. Rubin soll dieses Problem lösen.
2) Daher bietet Rubin als erstes HBM4 an, das die vierte Generation des Hochbandbreiten-Speichers unterstützt und eine Bandbreite von 22 TB/s erreichen kann. Aber entscheidend ist, dass es mit der NVLink 6-Technologie (Rack-Bandbreite von 260 TB/s) kombiniert wird, wodurch 72 Karten logisch zu „einem riesigen Chip“ werden.
Was bedeutet das? Früher kaufte man Grafikkarten als unabhängige Komponenten, und die Datenübertragung zwischen den Karten war wie ein Paketdienst, der mehrere Umsteigestationen durchlaufen musste. Jetzt ermöglicht Rubin durch extrem dichte Interkonnektivität, dass Daten zwischen verschiedenen GPUs fließen, ohne dass man die physische Distanz spürt. 72 Arbeiter arbeiten nicht mehr unabhängig, sondern teilen sich ein großes Gehirn.
Ich denke, das ist Rubins wahre Geheimwaffe: Es geht nicht nur darum, Hardwareparameter zu stapeln, sondern das gesamte System der Datenübertragung neu zu gestalten.
3) Wenn man sagt, dass MOE (Mixed Expert Model Architecture) ein dimensionaler Schlag gegen das „brutale Stapeln von Karten“ Geschäftsmodell von NVIDIA durch aufstrebende Unternehmen wie DeepSeek war, dann ist Rubin auf jeden Fall eine strategische Gegenoffensive von Huang. Es geht nicht mehr darum, wer weniger Karten benötigt, sondern direkt darum, die Kosten für die Nutzung von KI neu zu gestalten. Natürlich bedeutet dieser überraschende Schritt auch, dass NVIDIA sich endgültig von dem alten Modell des brutalen Stapelns von Karten verabschieden muss.
Huang denkt an eine andere Rechnung: Um die Agentic-Ära wirklich in allen Branchen zu verankern, muss man die Hürde der Token-Kosten überwinden, was ein unvermeidlicher Trend ist, den NVIDIA nicht aufhalten kann.
Huang sieht es so: Anstatt darauf zu warten, dass große Unternehmen wie Google und Meta den Markt mit selbstentwickelten Chips erobern oder dass Unternehmen wie DeepSeek den Angebotsmarkt mit neuen Modellen umkrempeln, ist es besser, selbst derjenige zu sein, der die Lösung findet.
4) Die Frage ist nun, wie sich NVIDIA nach dieser Selbstrevolution positionieren wird. Der Weg ist klar: vom „Verkauf von Grafikkarten“ zum „Verkauf von Systemen“, vom Dienstleister für wenige große Unternehmen hin zu einer echten Verbreitung von KI.
Früher, wenn man eine H100 kaufte, verdiente NVIDIA immer nur an dem Preis der Grafikkarte. Zukünftig wird Rubin dir sagen: Du musst das gesamte NVL72-Rack kaufen – 72 GPUs, NVLink Switch, ein vollflüssiges Kühlsystem, ein Gehäuse, und sogar die passende Software-Stack, alles im Paket verkauft.
Huang hat auch einen klaren Plan: Es sieht so aus, als ob die Kosten für die verpackte Hardware höher sind, aber sie bieten eine extrem hohe Effizienz bei der Inferenz, wodurch die Kosten pro Einheit für die Nutzung von KI gesenkt werden, und so wird der Marktanteil nicht verloren gehen.
Aber, aber, aber: Dieses Modell erhöht auch die Einstiegshürden für kleine und mittlere Spieler. Nur große Unternehmen und Cloud-Dienstleister können sich das leisten, was die Monopolisierung der Rechenleistung weiter verschärfen wird. In der aktuellen Wettbewerbssituation ist es ein großes Risiko, denn wenn es Probleme mit der Massenproduktion von HBM4 gibt, könnten AMD, Google TPU und andere in der Lage sein, in der Übergangsphase alternative Lösungen anzubieten, was es NVIDIA erschweren könnte, den Traum vom Verkauf von Systemen zu verwirklichen.
Top
Ranking
Favoriten
