Der Speicher entscheidet über das AI-Rennen. Samsung führt Gespräche, um Nvidia mit dem nächsten Generation HBM4-Speicher zu beliefern. Wenn dies zustande kommt, erweitert Nvidia seine Pipeline und Samsung rückt in die Pole-Position für AI-Speicher. HBM ist das Drosselventil für Modellgröße und Geschwindigkeit. Mehr Bandbreite bedeutet mehr Kapazität. Das Risiko liegt in der Ausbeute, den Kosten und der Konzentration der Versorgung. Wer HBM4 meistert, schreibt das nächste Kapitel der AI.