Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris McGuire
Ehemaliger NSC, OSTP, State, DoD und NSCAI | China Tech, KI, Halbleiter | Alle Ansichten meine eigenen
Ich plane, bald eine detailliertere Analyse von Huaweis AI-Chip-Roadmap zu schreiben, aber die Kurzversion ist, dass sie nicht sehr beeindruckend ist und zeigt, dass Huawei erwartet, dass die Kluft zwischen den Vereinigten Staaten und China bei AI-Chips in den kommenden Jahren erheblich wachsen wird:
1️⃣ Die AI-Chips, die Huawei nächstes Jahr herstellen will, haben WENIGER Rechenleistung und Speicherbandbreite als die besten Chips, die sie heute herstellen. Das ist sehr seltsam.
2️⃣ Huawei plant nicht, einen Chip so leistungsstark wie den B30A zu produzieren, den Nvidia jetzt nach China liefern möchte, bis zum Q4 2028.
3️⃣ Im Jahr 2027 (dem letzten Jahr von Nvidias Roadmap) werden Nvidias beste AI-Chips 27 MAL die Rechenleistung von Huaweis besten AI-Chips haben.
Huawei selbst glaubt, dass, während Nvidia fortschrittlichere Knoten verwendet und Huawei aufgrund von Exportkontrollen bei Werkzeugen an den 7nm/5nm-Knoten festhängt, Huawei weiter zurückfallen wird.
Der Plan von Huawei ist es, mit einer größeren Anzahl schlechterer Chips zu konkurrieren, aber es ist einfach nicht realistisch für sie, genug Chips zu produzieren, um diese Fähigkeit zu kompensieren. Huawei/SMIC müsste seine Produktionskapazitäten für Ascend bis 2027 um viele Hunderte und potenziell Tausende von Malen steigern, um so viel AI-Computing wie Nvidia zu produzieren. Das ist äußerst unwahrscheinlich. Es spielt keine Rolle, wie viele mittelmäßige Chips Huawei in einem Cluster unterbringen kann, wenn es nicht viele Cluster herstellen kann.
Und das ist noch nichts im Vergleich zu den Einschränkungen aufgrund der HBM-Versorgung oder potenzieller neuer US-Exportkontrollen für Werkzeuge. Die Vorteile der US-AI-Hardware werden in naher Zukunft erheblich wachsen, solange wir sie nicht verschenken.

Rui Ma18. Sept., 16:27
Die wichtigsten China-Tech-Nachrichten heute sind die Ankündigung von Huaweis Chip-Roadmap und die damit verbundenen Durchbrüche.
Wichtige Erkenntnisse:
Roadmap:
910C (2025), 950PR/DT (2026), 960 (2027), 970 (2028).
Dies zeigt einen stetigen Rhythmus von Upgrades in Rechenleistung, Bandbreite und Speicherskalierung.
Selbstversorgung im Speicher:
Ab der 950er-Serie wird Huawei selbstentwickelten HBM High Bandwidth Memory (HiBL 1.0, HiZQ 2.0) verwenden, um die Abhängigkeit von ausländischen Lieferanten zu verringern und die Unabhängigkeit der Lieferkette aufzubauen.
Strategische Positionierung gegenüber NVIDIA:
NVIDIAs Blackwell Ultra GB300 ist auf der Einzelchip-Ebene (15 PFLOPS FP4) nach wie vor weit voraus.
Huawei erkennt die Lücke an, betont jedoch die Skalierung auf Interconnect- und Cluster-Ebene und beansprucht die Führungsposition in der Rechenleistung von Super-Knoten. Siehe Zitate unten.
Cluster-Ambitionen:
Neue Atlas SuperPoDs skalieren bis zu 15.488 Karten bis 2027 und ermöglichen eine aggregierte Rechenleistung, die mit der von Wettbewerbern konkurrieren oder sie übertreffen kann, trotz schwächerer Chips.
Huawei setzt auf die Systemleistung, nicht nur auf die Chipspezifikationen.
Cross-Domain-Erweiterung:
Der TaiShan 950 SuperPoD (2026) geht über KI hinaus und zielt auf allgemeine Rechenanwendungen ab, wobei er die Rolle anstrebt, die einst von Großrechnern erfüllt wurde.
Übersetzung der Berichterstattung von Xinzhixun unten:
"Am 18. September, auf der Huawei Full Connect Conference 2025, enthüllte der rotierende Vorsitzende Xu Zhijun die neueste Ascend AI-Chip-Roadmap des Unternehmens.
Im Q1 2025 brachte Huawei den Ascend 910C auf den Markt.
Im Q1 2026 wird der Ascend 950PR veröffentlicht, gefolgt vom Ascend 950DT im Q4.
Im Q4 2027 ist der Ascend 960 geplant, und der Ascend 970 wird im Q4 2028 erscheinen.
Der Ascend 910C basiert auf einer SIMD-Architektur und liefert bis zu 800 TFLOPS (FP16), mit Unterstützung für FP32/HF32/FP16/BF16/INT8-Formate, 784 GB/s Interconnect-Bandbreite, 128 GB HBM und 3,2 TB/s Speicherbandbreite.
Der Ascend 950PR/DT wird auf eine SIMD/SIMT-Architektur aufrüsten und 1 PFLOPS (FP8) / 2 PFLOPS (FP4) erreichen. Er wird eine breitere Palette von Formaten (FP32 bis FP4) unterstützen, mit 2 TB/s Interconnect-Bandbreite. Spezifikationen für den Speicher:
950PR: 144 GB, 4 TB/s Bandbreite.
950DT: 128 GB, 1,6 TB/s Bandbreite.
Der Ascend 960 wird die Leistung auf 2 PFLOPS (FP8) / 4 PFLOPS (FP4) verdoppeln, mit 2,2 TB/s Interconnect und HBM, das auf 288 GB und 9,6 TB/s Bandbreite erweitert wird.
Der Ascend 970 wird die Rechenleistung erneut auf 4 PFLOPS (FP8) / 8 PFLOPS (FP4) verdoppeln, mit 4 TB/s Interconnect. Die HBM-Kapazität bleibt bei 288 GB, aber die Bandbreite wird auf 14,4 TB/s steigen.
Wichtig ist, dass ab dem 950PR die Ascend-Chips von Huawei selbstentwickeltes HBM übernehmen werden. Der 950 wird HBM HiBL 1.0 verwenden, während der 950DT auf HBM HiZQ 2.0 aufrüstet.
Zum Vergleich: NVIDIAs Blackwell Ultra GB300 liefert 15 PFLOPS (FP4) Rechenleistung, gekoppelt mit 288 GB HBM3e-Speicher und 8 TB/s Bandbreite.
Xu Zhijun erkannte an:
„Wegen der US-Sanktionen können wir unsere Chips nicht bei TSMC herstellen, daher liegt unsere Einzelchip-Leistung noch hinter NVIDIA zurück. Aber Huawei hat mehr als dreißig Jahre Erfahrung in der Verbindung von Menschen und Maschinen. Durch erhebliche Investitionen in die Interconnect-Technologie haben wir Durchbrüche erzielt, die es uns ermöglichen, Super-Knoten mit Zehntausenden von Karten zu bauen. Dies gibt uns die Fähigkeit, die leistungsstärkste Rechenleistung der Welt auf Systemebene bereitzustellen.“
Er betonte, dass Rechenleistung immer der Schlüssel zur künstlichen Intelligenz war und weiterhin sein wird—und insbesondere für Chinas KI. Seiner Ansicht nach werden Super-Knoten die neue Norm in der KI-Infrastruktur werden. Huaweis CloudMatrix 384 Super-Knoten wurde bereits in mehr als 300 Sets eingesetzt und bedient über 20 Kunden.
In die Zukunft blickend plant Huawei, den Atlas 950 SuperPoD im Q4 2025 auf den Markt zu bringen, der 8.192 Karten umfasst und von dem behauptet wird, dass er der leistungsstärkste Super-Knoten weltweit sein wird. Ein noch größerer Atlas 960 SuperPoD mit 15.488 Karten ist für das Q4 2027 geplant.
Xu stellte auch den weltweit ersten allgemeinen Rechen-Super-Knoten, den TaiShan 950 SuperPoD, vor. Er basiert auf dem Kunpeng 950, unterstützt bis zu 16 Knoten (32 Prozessoren), 48 TB Speicher und die Poolung von Speicher-, SSD- und DPU-Ressourcen. Er ist für das Q1 2026 geplant. Xu beschrieb ihn als das „Ende von Großrechnern und Minicomputern.“

174
Top
Ranking
Favoriten