Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Gavin Baker
Kul att vara på @theallinpod
Njöt av att träffa Ben och Phil.
Dessutom, hur många fler av dessa tills jag får en flaska tequila?

The All-In Podcast10 aug. 00:16
🚨 E238 är LIVE: två timmars sommarpodd!
@benshapiro, @GavinSBaker och @pdeutch fyller i för @chamath och @DavidSacks
-- OpenAI:s GPT-5: Varför tror folk att den floppade?
-- AI:s obegränsade marknad
-- Smuggling av GPU:er
-- Uppdatering av tariffer
-- Kinas stora fördel (och hur man ska motverka den)
Socialismens uppgång i USA
-- Bostadskris
-- Apples återköp på 700 miljarder dollar och en misslyckad AI-strategi
++ mycket mer
(0:00) Bästis intron! Gavin Baker, Ben Shapiro och Phil Deutch ansluter sig till showen
(7:32) GPT-5 underväldigande, benchmark mättnad, OpenAI:s produktförträfflighet
(18:14) AI:s konsekvenser för tam, roic och energi
(27:27) Kinas stora fördel och hur USA kan motverka den
(43:46) Politiska partier som väljer vinnare, återföring av energisubventioner, hur den byråkratiska grenen skapades och hur man fixar det
(52:38) Socialism, OBBB Impact on Energy, Förlitar sig socialismen i Amerika på Mamdani i NYC?
(1:10:00) Tulluppdatering: $125 miljarder + intäkter hittills, Indien och Schweiz slår hårt, Trumps ad hoc-strategi
(1:27:51) Nvidia-chips smugglas till Kina
(1:31:13) Apples återköp på 700 miljarder dollar sedan 2015 och en misslyckad AI-strategi
(1:40:09) Rekommendationer för sommarläsning
77,37K
Med tanke på den enorma - och ökande - betydelsen av beräkning vid testtid och RL efter träning som visas av Grok-4:s absoluta dominans, är det viktigare än någonsin att vara den billiga producenten av tokens. Som en parentes kan nämnas att det här är första gången i min karriär som teknikinvesterare som det har spelat roll att vara lågkostnadsproducent av någonting.
Idag är de lägsta kostnadsproducenterna av tokens Google (TPU:er) och xAI (största sammanhängande kluster, lägsta capex $ per distribuerad GPU, nästan säkert högsta MFU och har gjort några riktigt smarta arkitektoniska beslut). Jag är uppenbarligen partisk när det gäller xAI.
Ur ett rent tekniskt perspektiv är det viktigast att ha det bästa uppskalningsnätverket och den mest effektiva avlastningen av KV-cache för både kostnad och svarstid för de allt större modellerna och kontextfönstren. Dessa är de viktigaste konkurrensaxlarna inom AI-infrastruktur idag – inte databehandling. Observera att minnesbandbredden på paketet är viktigast när du kan få plats med modellen på ett enda chip (@cerebras), men för alla riktigt stora modeller som kräver flera paket är uppskalning och avlastning av kv-cache viktigast. Som alla som arbetar med ASIC:er långsamt börjar förstå.
Därför var Dynamo och NVLink med öppen källkod både viktiga och smarta. Det senare kan i allt högre grad leda till att ASIC-aktier migrerar till NVLink-partners. För att inte tala om de naturliga förhandlingsfördelarna med att ha en andra leverantör. Sannolikt att se mer av dessa IMHO:


97,57K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda