Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jensen hat dir gerade gesagt, dass DRAM ein Risiko für die nationale Sicherheit darstellt und niemand die Exposition von Nvidia gegenüber der Lieferkette neu bewertet.
Hier ist, was die meisten Leute denken, dass passiert ist: Nvidia hat Groq für 20 Milliarden Dollar gekauft, um in die Inferenz zu expandieren. Coole Akquisition, gute Technologie, weiter geht's.
Das ist falsch.
Schau dir an, was gerade auf den DRAM-Märkten passiert. Die Preise für DDR5-Chips sind im vierten Quartal 2025 von 6,84 $ auf 27,20 $ gestiegen. Das ist ein Anstieg um das 4-fache in drei Monaten. Samsung hat gerade die Vertragspreise um 100 % erhöht. Kingston implementiert wöchentliche Preiserhöhungen im zweistelligen Bereich. PC-Hersteller versenden jetzt Desktops ohne RAM, weil sie ihn buchstäblich nicht beschaffen können.
Warum? HBM für KI-Rechenzentren. Samsung, SK Hynix und Micron haben die Wafer-Kapazität auf HBM um das 3-fache schneller umgeschichtet als auf Standard-DRAM. Die KI-Lieferkette frisst den Verbraucherspeicher auf, und es gibt frühestens bis 2027 keine Entlastung, da neue Fabriken 4-5 Jahre zum Bau benötigen.
Nvidia GPUs sind HBM-lastig. Jede H100 hat 80 GB HBM3. Jedes B200-System benötigt sogar noch mehr. Und HBM besteht aus mehreren DRAM-Dies, die übereinander gestapelt sind, mit extrem komplexer Fertigung. Das Dreifache der DRAM-Preise betrifft nicht nur PC-Hersteller. Es wirkt sich direkt auf die Kosten und die Produktionskapazität von Nvidias GPUs aus.
Groqs LPUs verwenden null HBM. Null.
Sie laufen vollständig mit 230 MB On-Chip-SRAM pro Prozessor. Die SRAM-Bandbreite erreicht 80 TB/s im Vergleich zu HBM's 8 TB/s. Die Chips benötigen überhaupt keinen externen Speicher. Jedes Gewicht sitzt direkt auf dem Silizium.
Diese Architektur schien eine Einschränkung zu sein, als DRAM billig war. Du benötigst Hunderte von Groq-Chips, die miteinander vernetzt sind, um ein Modell mit 70B Parametern auszuführen, weil jeder Chip so wenig Speicher hat. Rack-Scale-Computing. Komplexe Verbindungen. Kapitalintensiv.
Aber wenn DRAM in einem Quartal um das 4-fache steigt und das HBM-Angebot die bindende Einschränkung für den gesamten KI-Ausbau wird, verwandelt sich diese "Einschränkung" in einen Vorteil.
Groqs LPU wird auf 14nm-Silizium hergestellt. Veraltet nach Halbleiterstandards. Keine Abhängigkeit von TSMCs hochmodernen Knoten. Keine Abhängigkeit von den drei Unternehmen, die über 90 % der DRAM-Produktion kontrollieren.
Jensen hat 20 Milliarden Dollar ausgegeben, um Nvidias gefährlichste Exposition gegenüber der Lieferkette abzusichern. Wenn HBM knapp und teuer bleibt, besitzt er jetzt eine Inferenzarchitektur, die die Einschränkung vollständig umgeht. Wenn HBM sich normalisiert, hat er 20 Milliarden Dollar für ein Unternehmen ausgegeben, das vor drei Monaten mit 6,9 Milliarden Dollar bewertet wurde.
Die Preisprämie sagt dir, wie hoch Jensens Wahrscheinlichkeitsabschätzung ist. Er hat fast das 3-fache der letzten Bewertungsrunde für einen Fluchtweg bezahlt.
Und was es wert ist, TrendForce prognostiziert, dass die Speicherengpässe bis ins erste Quartal 2026 und darüber hinaus anhalten werden. Samsung, SK Hynix und Micron genießen alle 40-60 % Betriebsmargen und haben keinen Anreiz, den Markt zu überschwemmen. Das Oligopol verhält sich genau wie ein Oligopol.
Die Frage, die niemand stellt: Wenn der Typ, der die meisten KI-Chips verkauft, gerade 20 Milliarden Dollar ausgegeben hat, um eine Architektur zu erwerben, die kein DRAM verwendet, was weiß er über das HBM-Angebot, das wir nicht wissen?
Top
Ranking
Favoriten
