Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Selvstendig forsker | Rådgiver @ambergroup_io | Spesialforsker @IOSGVC| Hardcore vitenskap | Tidligere:@peckshield | DM-er for samarbeid| Fellesskapet er kun åpent for Twitter-abonnenter
#OKX kinesisk nyttårsaften @star_okx sa Rice på hesten det så godt, og traff bransjens smertepunkter midt i samtalen og latteren!
Hvis bakgrunnen til krypto kun er fiendtlig kasinokultur som «stud», «PVP», «xx life» og «100x rich», så dreper vi faktisk fremtiden til denne industrien med egne hender, og vi shorter også $BTC i våre egne hender.
Når stablecoins, RWA, AI+Crypto, DeFi osv. gradvis blir mainstream, er krypto ikke lenger den marginale industrien som utenforstående forakter, men en parallell industri som virkelig tilsvarer tradisjonell vertikal finans. Ikke nyt utbyttet av bransjen mens du bruker vulgære «gamblernarrativer» for å stigmatisere våre tidligere oppfatninger.
Krypto nekter å overskygge seg selv og fortjener en bedre definisjon.
4,64K
Jeg ble målløs, og innen en uke ble min andre Claude-konto utestengt uten grunn.
Men for å være ærlig, var det ingen bølger i hjertet mitt denne gangen, og jeg ville til og med le litt. Hvorfor?
Fordi han allerede har gjennomskuet den underliggende logikken i å være uforklarlig blokkert, og fordi han har et sett smartere mestringsstrategier i hendene. Spesielt etter en måned med arbeid mot Vibe Coding, har jeg etablert et modent tenkesystem for å kontrollere AI, noe som er nok til rolig å kjempe mot denne plutselige «endringen».
La oss snakke om årsakene først, og grunnene er åpenbare: det er ikke annet enn hyppig banking på VPN-noden for å utløse fjernkontroll av risiko, eller misforholdet mellom betalingsstedet til Visa-kortet og terminalens IP som utløser en sikkerhetsadvarsel, eller at kortsiktig og høyfrekvent tokenforbruk enkelt og grovt bestemmes av systemet som en ondsinnet bot.
Men det finnes én dypere grunn: @claudeai Sea of Stars er en SaaS-tjeneste på bedriftsnivå. De bryr seg om store kunder som Fortune 500, og Anthropic bryr seg ikke om individuelle Pro- eller Max-brukere som oss, som er sterkt avhengige av nettversjonen, og til og med anser det som en ukontrollerbar risikofaktor.
Derfor er det ikke nødvendig å fortsette å kjempe med spørsmålet om forbud. Den viktigste lærdommen AI har lært meg: bind aldri kjerneproduktiviteten din til en ekstremt volatil nettkonto.
Faktisk er den virkelige løsningen å bygge et modelluavhengig, AI-lokaliseringstjenestesystem:
1) Bruke OpenRouter/Antigravity for å implementere modell-tilgangsruting, nedgradere Claude til en underliggende inferensmotor som kan byttes når som helst, for å unngå å sette seg fast;
2) Bruk tredjeparts-API-er utstyrt med Claude Code + Skills + Cowork for å rekonstruere et sett med interaksjonslogikk, forkast den mest ukontrollerbare interaksjonsmetoden i webfront-end, og ikke bekymre deg for tap av store mengder konfigurasjonsprompter/instruksjoner og annen data forårsaket av å bli utestengt, og la AI ligge i filsystemet ditt for å levere tjenester;
3) Les den lokale kodebasen direkte gjennom MCP-protokollen, kall din private kunnskapsbase i sanntid med Local RAG (Local Search Enhancement), og kjør til og med automatisk tester, Git-commits og feilrettingssløyfer i terminalen.
Kort sagt, å forlate AI-bruksmodellen «cloud rental» og aktivt gripe «lokal suverenitet» er den ultimate formen for Vibe Coding.
Hva er Vibe Coding hvis du bare kontrollerer den sterkeste modellen, men ikke kan kontrollere den umistelige retten til å bruke modellen?
903
Under CES-konferansen har NVIDIAs nylig lanserte Rubin-arkitektur blitt fokus for nylige markedsdiskusjoner, hva som er et annet stort gjennombrudd i tillegg til MOE-arkitekturen, hva som er tilpasset Agentic AI-æraen, osv., jeg tok en nærmere titt, og jeg kjente lukten av Lao Huangs «selvrevolusjon»:
1) Tidligere stolte Nvidia på fordeler med GPU-maskinvare, og benyttet seg av utbytteperioden da store AI-giganter febrilsk kjøpte datakraft for å trene store modeller. På den tiden var logikken veldig enkel: den som hadde flest grafikkort kunne trene den beste modellen.
Men nå har AI-krigføring gått fra «regnekraft»-slagmarken til «inferens», spesielt etter Agentic-æraens ankomst, og AI må håndtere høyfrekvent, flertrinns og ultralang kontekstuell resonnement.
På dette tidspunktet er modellparametrene billioner, datagjennomstrømningen er ekstremt stor, uansett hvor raskt GPU-en er, hvis minnedataene ikke er raske nok, må GPU-en stå i hvilemodus, som er "lagringsveggen", med andre ord kan ikke grafikkortet lenger løse problemet, og det trenger fortsatt høy videominne- og båndbreddekapasitet for å støtte det. Det var det Rubin prøvde å løse.
2) Derfor kan Rubins første HBM4 støtte fjerde generasjon høybåndbreddeminne, noe som kan få båndbredden til å nå 22 TB/s. Men viktigere er det at den samarbeider med NVLink 6-teknologien (260TB/s båndbredde i racket), som logisk sett gjør 72 kort om til «en gigantisk brikke».
Hva betyr dette? Tidligere, når du kjøpte et grafikkort, kjøpte du uavhengige komponenter, og dataoverføringen mellom kortene var som en kurer som passerte gjennom flere overføringsstasjoner. Nå bruker Rubin ekstremt tette sammenkoblinger for å få data til å flyte mellom GPU-er med nesten ingen fysisk avstand, og 72 arbeidere jobber ikke lenger separat, men deler en hjerne.
Jeg tror dette er Rubins virkelige killer-trekk: ikke bare å stable maskinvareparametere, men å refaktorere dataflyten i hele systemet.
3) Hvis MOE (Hybrid Expert Model Architecture) er et dimensjonsreduksjonsslag mot Nvidias forretningsmodell for «voldelige stablekort» fra stigende stjerner som DeepSeek, så er Rubin et strategisk motangrep fra Lao Huang uansett hvordan man ser på det. Selvfølgelig betyr dette trikset også at Nvidia må si farvel til den gamle modellen med voldelig kortstabling.
Lao Huang beregner en annen konto: Hvis Agentic-æraen virkelig lander i tusenvis av industrier, må den krysse terskelen med token-kostnad, som er den generelle trenden Nvidia ikke kan opprettholde.
I Lao Huangs øyne, i stedet for å vente på at Google, Meta og andre store produsenter skal trenge inn på markedet, eller bli undergravd av DeepSeek og andre modeller, er det bedre å ta initiativet og være den som ødelegger spillet.
4) Spørsmålet er, hvordan vil Nvidia håndtere seg selv etter selvrevolusjonen? Veien er også veldig klar, fra å «selge grafikkort» til å «selge systemer», fra å betjene noen få store produsenter til å gjøre AI virkelig populær.
Tidligere, når du kjøpte H100, tjente Nvidia penger på grafikkortet, og Rubin vil fortelle deg i fremtiden: du må kjøpe et komplett sett med NVL72-rack – 72 GPU-er, NVLink-bryter, fullt væskekjølingssystem, skap og til og med støttende programvarestabler, alt pakket og solgt til deg.
Lao Huangs abakus er også veldig tydelig, det virker som om kostnaden for pakket maskinvare er dyrere, men med tillegg av ekstrem resonnementeffektivitet trekkes enhetskostnaden for kjøperens AI ned, og den vil naturlig nok ikke miste markedsandel.
Men terskelen for små og mellomstore spillere er også høyere. Kun store produsenter og skyleverandører har råd til å delta, noe som ytterligere vil forsterke monopolet på datakraft. I dagens konkurransesituasjon kan det kalles et stort veddemål, fordi når det oppstår problemer med masseproduksjonen av HBM4, vil det bli erstattet av alternativer lansert av AMD, Google TPU og andre alternativer som utnytter vindusperioden, og Nvidias drøm om å selge systemet kan være mindre lett å realisere.
1,07K
Topp
Rangering
Favoritter