Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 NYTT: En Google-forsker og Turing-prisvinner har nettopp publisert en artikkel som avdekker den virkelige krisen innen AI.
Det er ikke trening. Det er slutning. Og maskinvaren vi bruker var aldri designet for det.
Avisen er skrevet av Xiaoyu Ma og David Patterson. Godkjent av IEEE Computer, 2026.
Ingen hype. Ingen produktlansering. Bare en kald gjennomgang av hvorfor det å servere LLM-er er fundamentalt ødelagt på maskinvarenivå.
Kjerneargumentet er brutalt:
→ GPU-FLOPS vokste 80 ganger fra 2012 til 2022
→ Minnebåndbredden vokste bare 17 ganger i samme periode
→ HBM-kostnadene per GB ØKER, ikke ned
→ Dekodingsfasen er minne-bundet, ikke beregningsbundet
→ Vi bygger slutninger på brikker designet for trening
Her er den villeste delen:
OpenAI tapte omtrent 5 milliarder dollar på 3,7 milliarder dollar i inntekter. Flaskehalsen er ikke modellkvalitet. Det er kostnaden for å levere hver eneste token til hver eneste bruker. Slutninger tapper disse selskapene for penger.
Og fem trender gjør det verre samtidig:
→ MoE-modeller som DeepSeek-V3 med 256 eksperter på eksploderende minne
→ Resonnementsmodeller som genererer massive tankekjeder før svar
→ Multimodale innganger (bilde, lyd, video) som overskygger teksten
→ Langkontekstvinduer som belaster KV-cacher
→ RAG-pipelines som injiserer mer kontekst per forespørsel
Deres fire foreslåtte maskinvareendringer:
→ Flash med høy båndbredde: 512 GB stakker på HBM-nivå båndbredde, 10 ganger mer minne per node
→ Prosessering-nær-minne: logiske brikker plassert ved siden av minnet, ikke på samme brikke
→ 3D minne-logikk-stakking: vertikale tilkoblinger som gir 2-3 ganger lavere effekt enn HBM...


Topp
Rangering
Favoritter
