Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris McGuire
Ex NSC, OSTP, Stato, DoD e NSCAI | Cina tecnologia, intelligenza artificiale, semiconduttori | Tutte le opinioni sono mie
Ho in programma di scrivere un'analisi più dettagliata della roadmap dei chip AI di Huawei a breve, ma in breve non è molto impressionante e mette in evidenza che Huawei prevede che il divario tra gli Stati Uniti e la Cina nei chip AI si allargherà significativamente nei prossimi anni:
1️⃣ I chip AI che Huawei prevede di produrre il prossimo anno hanno MENO potenza di elaborazione e larghezza di banda della memoria rispetto ai migliori chip che producono oggi. È molto strano.
2️⃣ Huawei non prevede di produrre un chip potente come il B30A, che Nvidia vuole spedire in Cina ora, fino al Q4 2028.
3️⃣ Nel 2027 (l'ultimo anno della roadmap di Nvidia), i migliori chip AI di Nvidia avranno 27 VOLTE la potenza di elaborazione dei migliori chip AI di Huawei.
Huawei stessa crede che, poiché Nvidia utilizza nodi più avanzati e Huawei rimane bloccata ai nodi da 7nm/5nm a causa dei controlli all'esportazione degli strumenti, Huawei rimarrà sempre più indietro.
Il piano di Huawei è di competere con un numero maggiore di chip di qualità inferiore, ma semplicemente non è realistico per loro produrre abbastanza chip per colmare questo divario di capacità. Huawei/SMIC dovrebbe aumentare le sue capacità di produzione di Ascend di molte centinaia e potenzialmente migliaia di volte tra ora e il 2027 per produrre tanta potenza di calcolo AI quanto Nvidia. Questo è estremamente improbabile. Non importa quanti chip mediocri Huawei possa mettere in un cluster se non può creare molti cluster.
E questo non tiene conto delle restrizioni dovute alla fornitura di HBM o dei potenziali nuovi controlli all'esportazione degli Stati Uniti sugli strumenti. I vantaggi hardware AI degli Stati Uniti sono destinati a crescere enormemente nel prossimo futuro, a patto che non li cediamo.

Rui Ma18 set, 16:27
Le notizie più importanti sulla tecnologia in Cina oggi riguardano l'annuncio della roadmap dei chip di Huawei e i relativi progressi.
Punti chiave:
Roadmap:
910C (2025), 950PR/DT (2026), 960 (2027), 970 (2028).
Indicando un ritmo costante di aggiornamenti in termini di calcolo, larghezza di banda e scalabilità della memoria.
Autosufficienza nella memoria:
A partire dalla serie 950, Huawei utilizzerà memoria HBM ad alta larghezza di banda (HiBL 1.0, HiZQ 2.0) sviluppata internamente, riducendo la dipendenza dai fornitori stranieri e costruendo indipendenza nella catena di approvvigionamento.
Posizionamento strategico rispetto a NVIDIA:
Il Blackwell Ultra GB300 di NVIDIA è ancora molto avanti a livello di singolo chip (15 PFLOPS FP4).
Huawei riconosce il divario ma sottolinea la scalabilità a livello di interconnessione e cluster, rivendicando la leadership nella potenza di calcolo super-nodo. Vedi le citazioni qui sotto.
Ambizione di cluster:
I nuovi Atlas SuperPoD scalano fino a 15.488 schede entro il 2027, consentendo un calcolo aggregato in grado di competere o superare i concorrenti nonostante chip più deboli.
Huawei punta sulle prestazioni a livello di sistema, non solo sulle specifiche dei chip.
Espansione cross-domain:
Il TaiShan 950 SuperPoD (2026) si estende oltre l'IA per il calcolo di uso generale, mirando al ruolo un tempo ricoperto dai mainframe.
Traduzione della copertura di Xinzhixun qui sotto:
"Il 18 settembre, durante la Huawei Full Connect Conference 2025, il presidente rotante Xu Zhijun ha svelato l'ultima roadmap dei chip AI Ascend dell'azienda.
Nel Q1 2025, Huawei ha lanciato l'Ascend 910C.
Nel Q1 2026, rilascerà l'Ascend 950PR, seguito dall'Ascend 950DT nel Q4.
Nel Q4 2027 è previsto l'Ascend 960, e l'Ascend 970 arriverà nel Q4 2028.
L'Ascend 910C è costruito su un'architettura SIMD, offrendo fino a 800 TFLOPS (FP16), con supporto per i formati FP32/HF32/FP16/BF16/INT8, 784 GB/s di larghezza di banda di interconnessione, 128 GB di HBM e 3,2 TB/s di larghezza di banda della memoria.
L'Ascend 950PR/DT passerà a un'architettura SIMD/SIMT, raggiungendo 1 PFLOPS (FP8) / 2 PFLOPS (FP4). Supporterà una gamma più ampia di formati (da FP32 a FP4), con 2 TB/s di larghezza di banda di interconnessione. Specifiche della memoria:
950PR: 144 GB, 4 TB/s di larghezza di banda.
950DT: 128 GB, 1,6 TB/s di larghezza di banda.
L'Ascend 960 raddoppierà le prestazioni a 2 PFLOPS (FP8) / 4 PFLOPS (FP4), con 2,2 TB/s di interconnessione, e HBM espansa a 288 GB e 9,6 TB/s di larghezza di banda.
L'Ascend 970 raddoppierà nuovamente il calcolo a 4 PFLOPS (FP8) / 8 PFLOPS (FP4), con 4 TB/s di interconnessione. La capacità HBM rimarrà a 288 GB, ma la larghezza di banda salirà a 14,4 TB/s.
È importante notare che, a partire dal 950PR, i chip Ascend di Huawei adotteranno HBM sviluppata internamente. Il 950 presenterà HBM HiBL 1.0, mentre il 950DT passerà a HBM HiZQ 2.0.
A titolo di confronto, il Blackwell Ultra GB300 di NVIDIA offre 15 PFLOPS (FP4) di calcolo, abbinato a 288 GB di memoria HBM3e e 8 TB/s di larghezza di banda.
Xu Zhijun ha riconosciuto:
"A causa delle sanzioni statunitensi, non possiamo produrre i nostri chip presso TSMC, quindi le nostre prestazioni a livello di singolo chip sono ancora inferiori a quelle di NVIDIA. Ma Huawei ha più di trent'anni di esperienza nel connettere persone e macchine. Investendo pesantemente nella tecnologia di interconnessione, abbiamo fatto progressi che ci consentono di costruire super-nodi con decine di migliaia di schede. Questo ci dà la capacità di fornire il calcolo più potente al mondo— a livello di sistema."
Ha sottolineato che la potenza di calcolo è sempre stata, e continuerà ad essere, la chiave per l'intelligenza artificiale—e soprattutto per l'IA della Cina. A suo avviso, i super-nodi diventeranno la nuova norma nell'infrastruttura dell'IA. Il super-nodo CloudMatrix 384 di Huawei è già stato distribuito in più di 300 set, servendo oltre 20 clienti.
Guardando al futuro, Huawei prevede di lanciare l'Atlas 950 SuperPoD nel Q4 2025, con 8.192 schede, che afferma sarà il super-nodo più potente a livello globale. Un Atlas 960 SuperPoD ancora più grande, con 15.488 schede, è previsto per il Q4 2027.
Xu ha anche svelato il primo super-nodo di calcolo di uso generale al mondo, il TaiShan 950 SuperPoD. Costruito sul Kunpeng 950, supporta fino a 16 nodi (32 processori), 48 TB di memoria e pooling di memoria, SSD e risorse DPU. È previsto per il rilascio nel Q1 2026. Xu lo ha descritto come la "fine dei mainframe e dei minicomputer."

159
Principali
Ranking
Preferiti