Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris McGuire
Tidigare NSC, OSTP, State, DoD och NSCAI | Kina teknik, AI, halvledare | Alla åsikter är mina egna
Jag planerar att skriva en mer detaljerad analys av Huaweis färdplan för AI-chip inom kort, men den korta versionen är att den inte är särskilt imponerande, och belyser att Huawei räknar med att klyftan mellan USA och Kina när det gäller AI-chip kommer att öka avsevärt under de kommande åren:
1️⃣ AI-chipsen som Huawei planerar att tillverka nästa år har MINDRE processorkraft och minnesbandbredd än de bästa chippen de tillverkar idag. Det är mycket märkligt.
2️⃣ Huawei planerar inte att producera ett chip lika kraftfullt som B30A, som Nvidia vill skicka till Kina nu, fram till Q4 2028.
3️⃣ År 2027 (det sista året i Nvidias färdplan) kommer Nvidias bästa AI-chips att ha 27 GÅNGER processorkraften jämfört med Huaweis bästa AI-chips.
Huawei själva tror att eftersom Nvidia använder mer avancerade noder och Huawei fortfarande sitter fast vid 7nm/5nm-noderna på grund av exportkontroller av verktyg, kommer Huawei att hamna ännu mer på efterkälken.
Huaweis plan är att konkurrera med ett större antal sämre chip, men det är helt enkelt inte realistiskt för dem att producera tillräckligt med chip för att kompensera för detta kapacitetsgap. Huawei/SMIC skulle behöva skala upp sin Ascend-produktionskapacitet med många hundra och potentiellt tusentals gånger mellan nu och 2027 för att producera lika mycket AI-beräkning som Nvidia. Det är extremt osannolikt. Det spelar ingen roll hur många mediokra chip Huawei kan sätta i ett kluster om det inte kan göra många kluster.
Och då har vi inte ens nämnt begränsningar på grund av HBM-utbudet eller eventuella nya amerikanska exportkontroller av verktyg. Fördelarna med amerikansk AI-hårdvara kommer att växa enormt inom en snar framtid, så länge vi inte ger bort dem.

Rui Ma18 sep. 16:27
De viktigaste China Tech-nyheterna idag är Huaweis tillkännagivande av chipfärdplanen och tillhörande genombrott.
Viktigt att ta med sig:
Färdplan:
910C (2025), 950PR/DT (2026), 960 (2027), 970 (2028).
Anger en stadig takt för uppgraderingar av beräkning, bandbredd och minnesskalning.
Självförsörjning i minnet:
Från och med 950-serien kommer Huawei att använda egenutvecklat HBM-minne med hög bandbredd (HiBL 1.0, HiZQ 2.0), vilket minskar beroendet av utländska leverantörer och gör leveranskedjan mer oberoende.
Strategisk positionering jämfört med NVIDIA:
NVIDIA:s Blackwell Ultra GB300 ligger fortfarande långt före på enchipsnivå (15 PFLOPS FP4).
Huawei erkänner gapet men betonar sammankoppling och skalning på klusternivå och hävdar att de är ledande inom beräkningskraft för supernoder. Se citat nedan.
Klustrets ambition:
Nya Atlas SuperPoD:er skalas upp till 15 488 kort till 2027, vilket gör det möjligt för aggregerad beräkning att konkurrera med eller överträffa konkurrenterna trots svagare chips.
Huawei satsar på prestanda på systemnivå, inte bara chipspecifikationer.
Expansion över domäner:
TaiShan 950 SuperPoD (2026) sträcker sig bortom AI till allmän databehandling och riktar in sig på den roll som en gång fylldes av stordatorer.
Översättning av Xinzhixun täckning nedan:
"Den 18 september, på Huawei Full Connect Conference 2025, presenterade den roterande ordföranden Xu Zhijun företagets senaste färdplan för Ascend AI-chip.
Under Q1 2025 lanserade Huawei Ascend 910C.
Under Q1 2026 kommer den att släppa Ascend 950PR, följt av Ascend 950DT under Q4.
Under Q4 2027 är Ascend 960 planerad och Ascend 970 kommer att anlända under Q4 2028.
Ascend 910C är byggd på en SIMD-arkitektur som levererar upp till 800 TFLOPS (FP16), med stöd för FP32/HF32/FP16/BF16/INT8-format, 784 GB/s sammankopplingsbandbredd, 128 GB HBM och 3,2 TB/s minnesbandbredd.
Ascend 950PR/DT kommer att uppgradera till en SIMD/SIMT-arkitektur och uppnå 1 PFLOPS (FP8) / 2 PFLOPS (FP4). Den kommer att stödja ett bredare utbud av format (FP32 till FP4), med 2 TB/s sammankopplingsbandbredd. Minne specifikationer:
950PR: 144 GB, bandbredd på 4 TB/s.
950DT: 128 GB, 1,6 TB/s bandbredd.
Ascend 960 kommer att fördubbla prestandan till 2 PFLOPS (FP8) / 4 PFLOPS (FP4), med 2,2 TB/s sammankoppling, och HBM utökas till 288 GB och 9,6 TB/s bandbredd.
Ascend 970 kommer återigen att fördubbla beräkningen till 4 PFLOPS (FP8) / 8 PFLOPS (FP4), med 4 TB/s sammankoppling. HBM-kapaciteten kommer att ligga kvar på 288 GB, men bandbredden kommer att öka till 14,4 TB/s.
Från och med 950PR kommer Huaweis Ascend-chip att använda egenutvecklad HBM. 950 kommer att ha HBM HiBL 1.0, medan 950DT kommer att uppgraderas till HBM HiZQ 2.0.
Som jämförelse kan nämnas att NVIDIA:s Blackwell Ultra GB300 levererar 15 PFLOPS (FP4) beräkning, parat med 288 GB HBM3e-minne och 8 TB/s bandbredd.
Xu Zhijun erkände:
"På grund av amerikanska sanktioner kan vi inte tillverka våra chip på TSMC, så vår enchipsprestanda ligger fortfarande efter NVIDIA. Men Huawei har mer än trettio års erfarenhet av att koppla samman människor och maskiner. Genom att investera kraftigt i sammankopplingsteknik har vi gjort genombrott som gör att vi kan bygga supernoder med tiotusentals kort. Detta ger oss möjlighet att leverera den mest kraftfulla databehandlingen i världen – på systemnivå."
Han betonade att beräkningskraft alltid har varit, och kommer att fortsätta att vara, nyckeln till artificiell intelligens – och särskilt till Kinas AI. Han tror att supernoder kommer att bli den nya normen inom AI-infrastruktur. Huaweis CloudMatrix 384-supernod har redan distribuerats i mer än 300 uppsättningar och betjänar över 20 kunder.
Framöver planerar Huawei att lansera Atlas 950 SuperPoD under Q4 2025, med 8 192 kort, som man hävdar kommer att bli den mest kraftfulla supernoden globalt. En ännu större Atlas 960 SuperPoD, med 15 488 kort, är planerad till Q4 2027.
Xu presenterade också världens första supernod för generella ändamål, TaiShan 950 SuperPoD. Den är byggd på Kunpeng 950 och stöder upp till 16 noder (32 processorer), 48 TB minne och poolning av minne, SSD och DPU-resurser. Den är planerad att släppas under Q1 2026. Xu beskrev det som "slutet för stordatorer och minidatorer".

162
Topp
Rankning
Favoriter