Jeg delte nylig et Macquarie-estimat som fremhever skalagapet i planleggingen av amerikansk–kinesisk KI-kraft: Frem til 2030 vil Kina trenge AI-relatert makt tilsvarende kun 1–5 % av det de har lagt til de siste fem årene; USA vil trenge 50–70 %. Med andre ord har Kina allerede lagt til 20 × kraften som AI-utbyggingen krever, mens USA står overfor en langt brattere stigning. Dette stemmer også overens med det jeg sa i august — at Kina i stor grad har «løst» den kortsiktige AI-strømforsyningen. Og bransjeledere som Satya Nadella sier nå den stille delen høyt: den virkelige AI-flaskehalsen er å flytte seg fra GPU-er til elektrisitet og energiserverte datasentre. For de som følger de dypere strukturelle forskjellene, her er hovedpunktene fra en nylig analyse av våre venner hos Weijin Research: 1. Maktgapet - Tillegg i 2023: USA 51 GW mot Kina 429 GW (8×). - Kina genererer 9 000+ TWh, mer enn dobbelt så mye som USA. - Storskala AI avhenger nå av fysisk strømtilgjengelighet. 2. Effektivitetsforskjeller - Kinas utfordring er ikke forsyning, men effektivitet fra elektrisitet til datamaskin. - Huawei-systemer kan konkurrere med Nvidia i FLOP-er, men bruker 100 %+ mer energi per enhet beregning. - I ett scenario (CloudMatrix vs. GB200) når Kinas strømkostnad per FLOP ~140 % av USA, til tross for billigere strøm. 3. Hvorfor dette er viktig Kraft, nettdesign og datakrafteffektivitet vokser frem som kjernekapasiteter nasjonalt i AI-æraen. Det er også grunnen til at vi @techbuzzchina arrangerer en New Energy Trip til Kina i januar 2026, med flere programmer planlagt senere i år. Å forstå energisystemet — nett, overføring, lagring, solenergi og hvordan KI er integrert i det — blir stadig viktigere for å forstå fremtidens databehandling. Kinesiske selskaper merker dette også—de beveger seg raskt for å eksportere teknologiene sine over hele fullstacken. Lenke til artikkelen i kommentarfeltet nedenfor.