Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

ariel reyez romero
Tålamod är en dygd
"AMD har nått en överenskommelse med Riot Platforms om att förvärva 25 megawatt IT-kapacitet vid sitt datacenter i Rockdale, Texas. Kapaciteten förväntas levereras mellan januari och maj 2026. Nyckeln till avtalet är att AMD har möjlighet att öka elallokeringen till 200 megawatt, vilket kommer att öka det totala kontraktsvärdet till cirka 1 miljard dollar. ”
--- Kommer denna vår att bli våren för Neo Cloud?

59
"EDA-liknande: Varför det är den svåraste mjukvarugraven att skaka av sig i AI-eran"
I trenden att AI påverkar mjukvaruindustrin kommer de flesta ingenjörsprogramvaror att omformas av generativ AI.
Endast en liten del av vallgraven blev djupare.
Avrinningsområdet beror på en fråga:
Är denna mjukvara ett "gränssnitt till den fysiska verkligheten"?
1. Vad är "EDA-liknande" programvara?
EDA är speciell inte för att den tjänar chipindustrin, utan för att den befinner sig i en extrem position:
Designfel är irreversibla, och misstag skrotas, och kostnaden är extremt hög
Resultatet måste följa fysikens lagar
Mjukvaruutmatningen är direkt lika med produktionsinstruktionerna
I detta scenario är det omöjligt för AI att återskapa svar genom att kringgå det ursprungliga systemet.
Det enda sättet det fungerar på är att bädda in det för att hjälpa folk att hålla felprocenten låg.
Den här typen av programvara är vad jag kallar "EDA-liknande".
2. Varför EDAs vallgrav har fördjupats under AI-eran
För att funktionen är komplex och misslyckandet är outhärdligt.
Den privata domändata som samlas in i chipdesign – PDK-justering, tidsgränser, processkomprometteringar – har en sak gemensamt:
Om du lämnar det ursprungliga verktyget blir det ogiltigt.
Denna data är varken universell, svår att tolka eller kan generaliseras.
AI kan använda dem för att optimera processer, men kan inte replikera ett "nytt EDA-oberoende system."
Resultatet blir:
AI blir ett plugin för EDA, inte en ersättning.
3. Vilka sektorer rör sig mot "EDA-liknande"
Utöver traditionell EDA på chipet rör sig flera typer av ingenjörsprogramvara i samma riktning:
Avancerad CAE / multifysiksimulering
Design av flygsystem
Kärnkraft, elnät, kemisk processsimulering
Industriell PLM för djupbunden tillverkning
De har en gemensam egenskap:
Designen i sig är ett säkerhetsbevis eller efterlevnadsdokument.
Inom dessa områden är "att generera ett resultat som ser rätt ut" meningslöst,
Det enda som är värt det är om detta resultat kan accepteras av den fysiska världen.
4. Vem som kommer att bli "Photoshoppad"
I kontrast finns det en annan typ av ingenjörsprogramvara:
Allmän CAD
Arkitektonisk design / BIM
Industriell utseende och konstruktionsdesign
Verktyg för förprojektplan
Centraliteten för dessa mjukvaror kommer att försvagas av AI.
När AI kan generera 80 % av designresultatet direkt från text, regler och begränsningar,
Programvaran i sig degraderas ofta till redigerare och verifieringsverktyg.
De kan abstraheras, överföras, läras in.
5. Ett enkelt bedömningskriterium
För att avgöra om en ingenjörsprogramvara kan bilda en EDA-liknande vallgrav, ställ endast sex frågor:
Kommer du att betala ett outhärdligt pris om du har fel?
Kan buggar verifieras fullt ut innan de går live?
Går datan ut när den lämnar verktyget?
Betyder design direkt produktion?
Är det bundet av regler eller säkerhetssystem?
Är det djupt inbäddat i tillverkning eller operativsystem?
Ju mer "ja", desto närmare är det en EDA-liknande variant.
Epilog
AI förändrar inte världen jämnt.
Det kommer att göra "ingenjörskonsensusprogramvara" lättare,
Men det kommer att driva "fysisk verklighetsgränssnittsprogramvara" in i ett djupare monopol.
EDA-liknande är en av få mjukvarusektorer i AI-eran där vallgravens säkerhet har ökat.
Detta är slutsatsen som ges av fysiska begränsningar.

48
Den här tweeten om Micron i slutet av september har hittills mer än fördubblat aktiekursen på MU:s
Är det fortfarande undervärderat nu?
Det är troligt att den fortfarande underskattas, och grovt underskattas.
Anledningen är,
Oavsett vilken känd väg till AGI som finns, blir "lagring" en hård begränsning för hyperlinjär eller till och med fasad exponentiell tillväxt
1) Nästan alla vanliga AGI-rutter är "implicita" lagringsexplosioner
Kända vägar inkluderar:
Världsmodeller
LLM + Multimodal Foundation Model
Förkroppsligad AI
Multi-modell samarbets-/multiagentsystem
Långtidsminne + planering + reflektionssystem
De leder alla till hyperlinjär tillväxt i lagringsefterfrågan och driver upp alla tre typer av lagring samtidigt:
Parameterlagring (modellvikter, kontrollpunkter)
Mellanliggande tillstånd / världstillståndslagring (tidsserietillstånd, avledningsprocess)
Långtidserfarenhet / minneslagring (externt minne, bana, kunskap och erfarenhet)
2) Varför "världsmodellen" naturligt är en lagringsdödare
(a) Världsmodellen är inte en "input→output" utan ett "spelbart universum"
Vad världsmodellen måste göra är: Givet världstillståndet → härleda framtiden → Rulla tillbaka → Jämför → Återhärleda Därför måste den sparas:
Världsläget (S_t)
Tillståndsövergångsrelation (P(S_{t+1}| S_t, A_t))
Flergrenshypoteser (kontrafaktuella)
Långspannssekvenser (långa horisonter)
Viktig poäng: Detta är inte en linjär kedja, utan en trädforkstruktur – lagringstillväxten blir linjär över tid × förgreningsfaktor → faktiskt beter sig som hyperlinjär.
(b) När modellen börjar bli "generaliserbar" kommer lagringskraven att förändras
Lågupplöst steg kan också komprimeras bättre; Men när modellen kommer närmare att "verkligen förstå världen":
Regler kan komprimeras
Men långa svansar, undantag, undantag och komplexa orsak-och-verkan-fall är inkompressibla
Därför kommer det att bli en felbedömning att "ju smartare du är, desto mindre lagring har du" – verkligheten är mer som: ju smartare →, desto mer inkomprimerbara undantag och upplevelser måste bevaras under lång tid.
3) LLM + Multimodal: Lagringen är inte mindre, utan "ersatt" och större
Många skulle tro att LLM:er bara är stora parametrar och få tillstånd, men trenden blir:
(a) Från "parameter som kunskap" till "parameter + externt minne"
Långa sammanhang, RAG, Memory Bank, Episodic Memory med mera, flyttar kunskap från dess tyngd och in i anropbar extern lagring. Detta är vanligtvis "flytta", inte "minska det totala beloppet".
(b) Multimodalitet ökar avsevärt datatätheten för "per upplevelse"
Upplevelse är inte längre en mening, utan kan vara: Video + Audio + Action + Ambient State Ju fler modaliteter, desto större mängd effektiv information finns i ett sample, och desto större lagringstryck.
4) Förkroppsligad intelligens: lagringstrycket är mer överdrivet
Förkroppsligad intelligensberoende:
Storskaligt sensorflöde (syn/kraftmätning/IMU, etc.)
Multimodala tidsjusteringsbanor
En fullständig lista över framgångs- och misslyckandeavsnitt
Jämförelse:
Den grundläggande samplingsenheten för LLM:er är en token
Världsmodellen är bana
Roboten är en bana × kontinuerlig signal
Och här är det viktiga faktumet: sällsynta fel och säkerhetsrelaterade lärdomar är särskilt värdefulla och kan ofta inte enkelt kastas bort, vilket ytterligare ökar mängden lagringsutrymme som "måste sparas."
5) Multiagent-/samarbetssystem: Det är lätt att få en "kvadratisk effekt" eller till och med en exponentiell illusion
Om det finns N agenter, var och en med M erfarenhet:
Endast separat lagring: Cirka (N×M)
Men när det väl finns behov av att dela, justera, modellera varandra (förutsäga "vad den andra agenten tänker"), expanderar lagringen in i det relationella utrymmet, kanske nära (O(N^2×M))
Särskilt inom sociala/spel-/ekonomiska simuleringsuppgifter kommer multi-agent + världsmodellen att avsevärt förstärka lagringsbehoven.
6) Finns det en AGI-väg för att "kringgå lagringsexplosioner"?
Slutsatsen är att det för närvarande inte finns någon seriös AGI-väg som faktiskt kringgår lagringsskalan. Det finns bara tre typer av "uppskjutning/överföring":
Mer aggressiv kompression (men ofta förlorar generalisering)
Oftare glömska (offra långsiktig konsekvens)
Outsourcing av lagring till miljöer/verktyg/nätverk (i princip överföring, inte eliminering)
7) Sammanfattning: Kommer utbudet inte att hinna ikapp efterfrågan på länge?
Domen är följande:
"Intelligensnivån" förlitar sig alltmer på skalan av det effektiva minne som kan kallas (inte bara datorkraft)
Lagringsutbyggnad beror på praktiska faktorer som material, tillverkning, tillförlitlighet, energiförbrukning, kostnad med mera
Därför kommer efterfrågan på effektiv lagring inom överskådlig framtid sannolikt att överträffa lagringskapaciteten på lång sikt
Motsvarande slutsatser inkluderar:
Möjligheten att köra fullständiga världsmodeller/storskaliga minnessystem är mer sällsynt och centraliserad
Branschbegränsningar kan skifta från "datorkraft" till "lagringssystem" (hierarki, anropbarhet, långsiktig konsistens)
Därför
Oavsett om det är en världsmodell, förkroppsligad intelligens eller multimodal + agent, skiftar de viktigaste hårda begränsningarna för AGI gradvis från "beräkningskraft" till "skalbara, anropbara och långsiktiga konsistente lagringssystem"; Detta lagringsbehov är strukturellt hyperlinjärt och kan visa sig som ungefärligt exponentiellt tryck vid vissa stadier.
NFA Dyor

ariel reyez romero26 sep. 2025
MU kan underskattas av följande skäl:
Micron sade att HBM:s produktionskapacitet i princip kommer att vara slutsåld/låst under 2025-2026, HBM3E-priserna har till största delen varit låsta fram till 2026, och HBM4 marknadsförs.
HBM TAM från cirka ~35–36 miljarder år 2025 till ~100 miljarder dollar år 2030; Andelen HBM i DRAM fortsätter att öka.
HBM delar SK hynix-ledningar, Samsung kommer snabbt ikapp (12-Hi HBM3E är certifierad av NVIDIA), och Micron har i hög grad kommit ikapp generationsklyftan och minskat bland de största kunderna de senaste två åren.
Policy- och lokaliseringsfördelar (USA-expansion + subventioner för att minska geopolitiska och efterlevnadsrisker)
2025: HBM3E snabb klättring; HBM:s intäkter under fjärde kvartalet var nästan 2 miljarder dollar (årligt ~8 miljarder dollar); FY25 Capex ≈13,8 miljarder dollar, återinvestering i frontsegmentet av DRAM/HBM; HBM:s produktionskapacitet kommer i princip att vara slutsåld 2025.
2026: Ledningens investeringskostnader för räkenskapsåret 26 är högre än för räkenskapsåret 25; HBM:s produktionskapacitet 2026 kommer att vara fullbokad inom några månader; HBM3E-priserna är mestadels låsta fram till 2026, och HBM4-provning/förhandling pågår; Djupt samarbete med TSMC för att utveckla HBM4/4E.
För närvarande är PE 20 gånger, och framåtriktat PE förväntas vara mindre än 15 gånger
NFA Dyor
9
Topp
Rankning
Favoriter