Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tomasz Tunguz
Det här var så kul, Mario. Tack för att jag fick vara med i programmet för att prata om allt som händer på marknaden!

Mario Gabriele 🦊22 juli 20:22
Vårt senaste avsnitt med Tomasz Tunguz är live!
Datans årtionde
@ttunguz har ägnat nästan två decennier åt att omvandla data till investeringsinsikter. Efter att ha stöttat Looker, Expensify och Monte Carlo på Redpoint Ventures lanserade han @Theoryvc 2022 med en djärv vision: att bygga ett "investeringsföretag" där forskare, ingenjörer och operatörer sitter tillsammans med investerare och skapar marknadskartor i realtid och interna AI-verktyg. Hans debutfond stängde på 238 miljoner dollar, följt bara 19 månader senare av en andra fond på 450 miljoner dollar. Theory är centrerad på data, AI och kryptoinfrastruktur och verkar i hjärtat av dagens mest betydelsefulla tekniska skiften. Vi utforskar hur data omformar riskkapital, varför traditionella investeringsmodeller förändras och vad som krävs för att bygga ett företag som inte bara förutspår framtiden utan aktivt hjälper till att skapa den.
Lyssna nu:
• YouTube:
• Spotify:
•Äpple:
Ett stort tack till alla fantastiska sponsorer som gör podden möjlig:
✨ Brex - Banklösningen för nystartade företag:
✨ Generalist+ — Viktig intelligens för moderna investerare och teknologer:
Vi utforskar:
→ Hur Theorys modell för "investerande företag" fungerar
→ Varför kryptobörser kan skapa en livskraftig väg till offentliga marknader för små mjukvaruföretag
→ Den hotande energikrisen – varför datacenter kan förbruka 15 % av USA:s elektricitet inom fem år
→ Stablecoins snabba uppgång när stora banker dirigerar 5-10 % av amerikanska dollar genom dem
→ Varför Ethereum står inför en existentiell utmaning som liknar AWS: att förlora mark till Azure i AI-eran
→ Varför Tomasz tror att dagens handfull agenter kommer att bli 100+ digitala medarbetare i slutet av året
→ Varför Meta satsar miljarder på AR-glasögon för att förändra hur vi interagerar med maskiner
→ Hur Theory Ventures använder AI för att påskynda marknadsundersökningar, affärsanalys och investeringsbeslut
… Och mycket mer!
7,71K
OpenAI tar emot i genomsnitt 1 fråga per amerikan och dag.
Google får cirka 4 frågor per amerikan och dag.
Sedan dess har 50 % av Googles sökfrågor AI-översikter, vilket innebär att minst 60 % av sökningarna i USA nu är AI.
Det har tagit lite längre tid än jag förväntade mig för detta att hända. År 2024 förutspådde jag att 50 % av konsumenternas sökningar skulle vara AI-aktiverade. (
Men AI har kommit in i sökandet.
Om Googles sökmönster är någon indikation finns det en maktlag i sökbeteendet. SparkToros analys av Googles sökbeteende visar att den översta tredjedelen av amerikanerna som söker utför uppemot 80 % av alla sökningar - vilket innebär att AI-användningen sannolikt inte är jämnt fördelad - precis som i framtiden.
Webbplatser och företag börjar känna av effekterna av detta. The Economists artikel "AI dödar webben. Kan något rädda den?" fångar tidsandan i en rubrik. (
En överväldigande majoritet av amerikanerna söker nu med AI. Den andra ordningens effekter från förändrade sökmönster kommer under andra halvåret i år och fler kommer att fråga, "Vad hände med min trafik?" (
AI är en ny distributionskanal och de som tar tag i den kommer att vinna marknadsandelar.
- William Gibson såg mycket längre in i framtiden!
- Detta är baserat på en mittpunktsanalys av SparkToro-diagrammet, är en mycket enkel analys och har vissa fel som resultat.

8,57K
När jag arbetar med AI stannar jag upp innan jag skriver in något i rutan för att ställa mig själv en fråga: vad förväntar jag mig av AI?
2x2 till undsättning! Vilken låda är jag i?
På en axel, hur mycket sammanhang jag ger: inte särskilt mycket till ganska mycket. Å andra sidan, om jag ska titta på AI:n eller låta den köra.
Om jag ger väldigt lite information och låter systemet köra: "forska framåt utplacerade ingenjörstrender", får jag bortkastade resultat: breda översikter utan relevanta detaljer.
Att köra samma projekt med en serie korta frågor ger en iterativ konversation som lyckas - en utforskning.
"Vilka företag har implementerat Forward Deployed Engineers (FDE)? Vilka är de typiska bakgrunderna för FDE? Vilka typer av avtalsstrukturer och verksamheter lämpar sig för detta arbete?
När jag har en mycket låg tolerans för misstag ger jag omfattande sammanhang och arbetar iterativt med AI. För blogginlägg eller finansiell analys delar jag med mig av allt (aktuella utkast, tidigare skrifter, detaljerade krav) och fortsätter sedan mening för mening.
Att låta en agent köra fritt kräver att du definierar allt i förväg. Jag lyckas sällan här eftersom det inledande arbetet kräver enorm tydlighet - exakta mål, omfattande information och detaljerade uppgiftslistor med valideringskriterier - en disposition.
Dessa uppmaningar ser ut som de produktkravsdokument jag skrev som produktchef.
Svaret på "vad förväntar jag mig?" kommer att bli lättare i takt med att AI-system får tillgång till mer av min information och blir bättre på att välja ut relevant data. I takt med att jag blir bättre på att formulera vad jag faktiskt vill så blir samarbetet bättre.
Jag siktar på att flytta många fler av mina frågor från den övre vänstra hinken - hur jag tränades med Google-sökning - till de andra tre kvadranterna.
Jag förväntar mig också att denna vana kommer att hjälpa mig att arbeta med människor bättre.

2,92K
Den lilla svarta rutan i mitten är maskininlärningskod.
Jag minns att jag läste Googles rapport Hidden Technical Debt in ML från 2015 och tänkte på hur lite av en maskininlärningsapplikation som var faktisk maskininlärning.
Den allra största delen var infrastruktur, datahantering och operativ komplexitet.
I och med den artificiella intelligensens gryning verkade det som om stora språkmodeller skulle ta över dessa boxar. Löftet var enkelhet: släpp in en LLM och se hur den hanterar allt från kundservice till kodgenerering. Inga fler komplexa pipelines eller bräckliga integrationer.
Men när vi bygger interna applikationer har vi observerat en liknande dynamik med AI.
Agenter behöver mycket sammanhang, som en människa : hur är CRM strukturerat, vad skriver vi in i varje fält - men input är dyrt den hungriga, hungriga AI-modellen.
Att minska kostnaderna innebär att skriva deterministisk programvara för att ersätta AI:s resonemang.
Automatisering av e-posthantering innebär till exempel att skriva verktyg för att skapa Asana-uppgifter och uppdatera CRM.
I takt med att antalet verktyg ökar till från tio eller femton verktyg fungerar det inte längre att kalla på verktyg. Dags att skapa en klassisk maskininlärningsmodell för att välja verktyg.
Sedan är det att titta på systemet med observerbarhet, utvärdera om det är högpresterande och dirigera till rätt modell. Dessutom finns det en hel kategori av programvara som ser till att AI:n gör vad den ska.
Skyddsräcken förhindrar olämpliga svar. Hastighetsbegränsning hindrar kostnaderna från att skena iväg när ett system går överstyr.
Informationshämtning (RAG - retrieval augmented generation) är viktigt för alla produktionssystem. I min e-postapp använder jag en LanceDB-vektordatabas för att hitta alla e-postmeddelanden från en viss avsändare och matcha deras ton.
Det finns andra tekniker för kunskapshantering kring graf-RAG och specialiserade vektordatabaser.
På senare tid har minnet blivit mycket viktigare. Kommandoradsgränssnitten för AI-verktyg sparar konversationshistorik som markdown-filer.
När jag publicerar diagram vill jag ha Theory Ventures-texten längst ner till höger, ett visst typsnitt, färger och stilar. Dessa sparas nu alla i .gemini- eller .claude-filer i en serie överlappande kataloger.
Den ursprungliga enkelheten hos stora språkmodeller har ersatts av produktionskomplexitet i företagsklass.
Detta är inte identiskt med den tidigare generationen av maskininlärningssystem, men det följer en tydlig parallell. Det som såg ut att vara en enkel "AI-magisk låda" visar sig vara ett isberg, med det mesta av ingenjörsarbetet gömt under ytan.


3,66K
Om 2025 är agenternas år, så kommer 2026 säkert att tillhöra agentcheferna.
Agentchefer är personer som kan hantera team av AI-agenter. Hur många kan en person lyckas hantera?
Jag kan knappt hantera 4 AI-agenter samtidigt. De ber om förtydliganden, ber om tillstånd, gör webbsökningar – allt kräver min uppmärksamhet. Ibland tar en uppgift 30 sekunder. Övrig tid, 30 minuter. Jag tappar koll på vilken agent som gör vad och hälften av arbetet kastas bort för att de misstolkar instruktioner.
Detta är inte ett färdighetsproblem. Det är ett verktygsproblem.
Fysiska robotar ger ledtrådar om robotars produktivitet. MIT publicerade en analys 2020 som föreslog att den genomsnittliga roboten ersatte 3,3 mänskliga jobb. År 2024 rapporterade Amazon att pickpack- och fraktrobotar ersatte 24 arbetare.
Men det finns en avgörande skillnad: AI är icke-deterministiskt. AI-agenter tolkar instruktioner. De improviserar. Ibland ignorerar de anvisningar helt och hållet. En Roomba kan bara drömma om den kreativa friheten att ignorera ditt vardagsrum och bestämma sig för att garaget behöver uppmärksamhet istället.
Managementteori vägleder ofta team till ett kontrollspann på 7 personer.
När jag har pratat med några bättre agentchefer har jag lärt mig att de använder en agentinkorg, ett projektledningsverktyg för att begära AI-arbete och utvärdera det. Inom programvaruteknik tjänar Githubs pull-begäranden eller linjära biljetter detta syfte.
Mycket produktiva AI-mjukvaruingenjörer hanterar 10-15 agenter genom att specificera 10-15 uppgifter i detalj, skicka dem till en AI, vänta tills de är klara och sedan granska arbetet. Hälften av arbetet kastas bort och startas om med en förbättrad prompt.
Agenternas inkorg är inte populär – än. Det är inte allmänt tillgängligt.
Men jag misstänker att det kommer att bli en viktig del av produktivitetsstacken för framtida agentchefer eftersom det är det enda sättet att hålla reda på det arbete som kan komma in när som helst.
Om ARR per anställd är det nya fåfänga måttet för nystartade företag, kan agenter som hanteras per person bli fåfänga produktivitetsmått för en arbetare.
Hur många agenter tror du att du skulle kunna hantera på 12 månader? 10? 50? 100? Kan du hantera en agent som hanterar andra agenter?

7,86K
Under det senaste decenniet har den största posten i alla nystartade företags FoU-budget varit förutsägbar talang. Men AI pressar sig in på resultaträkningen.
Hur mycket ska ett nystartat företag spendera på AI som en procentandel av sina utgifter för forskning och utveckling?
10%? 30%? 60?
Det finns tre faktorer att ta hänsyn till. För det första, medellönen för en mjukvaruingenjör i Silicon Valley. För det andra är den totala kostnaden för AI som används av den ingenjören. Cursor ligger nu på 200 dollar per månad för deras Ultra-plan och recensioner av Devin föreslår 500 dollar per månad. För det tredje, antalet agenter som en ingenjör kan hantera.
Ett första pass : (första bilden)
Men prenumerationskostnaderna är förmodligen låga. Under de senaste dagarna har jag lekt mycket med AI-kodningsagenter och jag fick en räkning på 1 000 dollar inom loppet av fem dagar! 😳😅
Så låt oss uppdatera tabellen och anta ytterligare $1000 per månad per ingenjör.
Så för ett typiskt nystartat företag kan man tänka sig att 10 till 15 % av de totala FoU-kostnaderna idag används för AI.
Varianterna kommer att vara mycket bredare i praktiken i takt med att vi alla lär oss att använda AI bättre och det tränger in mer i organisationen. Mindre företag som är AI-infödda från början kommer sannolikt att ha betydligt högre andelar.
Om du är intresserad av att delta i en anonym undersökning kommer jag att publicera resultaten om urvalsstorleken är tillräckligt stor för att ha ett statistiskt signifikant resultat.
Undersökningen finns här:
Detta är en grovt förenklad modell där vi bara granskar löner, exklusive förmåner, hårdvara, utvecklings- och testinfrastruktur etc.
Detta är en uppskattning baserad på diskonterad kodning av personliga erfarenheter.


1,96K
Under det senaste decenniet har den största posten i alla nystartade företags FoU-budget varit förutsägbar talang. Men AI pressar sig in på resultaträkningen.
Hur mycket ska ett nystartat företag spendera på AI som en procentandel av sina utgifter för forskning och utveckling?
10%? 30%? 60?
Det finns tre faktorer att ta hänsyn till. För det första, medellönen för en mjukvaruingenjör i Silicon Valley. För det andra är den totala kostnaden för AI som används av den ingenjören. Cursor ligger nu på 200 dollar per månad för deras Ultra-plan och recensioner av Devin föreslår 500 dollar per månad. För det tredje, antalet agenter som en ingenjör kan hantera.
Ett första pass : (första bilden)
Men prenumerationskostnaderna är förmodligen låga. Under de senaste dagarna har jag lekt mycket med AI-kodningsagenter och jag fick en räkning på 1 000 dollar inom loppet av fem dagar! 😳😅
Så låt oss uppdatera tabellen och anta ytterligare $1000 per månad per ingenjör.
Så för ett typiskt nystartat företag kan man tänka sig att 10 till 15 % av de totala FoU-kostnaderna idag används för AI.
Varianterna kommer att vara mycket bredare i praktiken i takt med att vi alla lär oss att använda AI bättre och det tränger in mer i organisationen. Mindre företag som är AI-infödda från början kommer sannolikt att ha betydligt högre andelar.
Om du är intresserad av att delta i en anonym undersökning kommer jag att publicera resultaten om urvalsstorleken är tillräckligt stor för att ha ett statistiskt signifikant resultat.
Undersökningen finns här:
Detta är en grovt förenklad modell där vi bara granskar löner, exklusive förmåner, hårdvara, utvecklings- och testinfrastruktur etc.
Detta är en uppskattning baserad på diskonterad kodning av personliga erfarenheter.


230
När du frågar AI samlar den in relevant information för att svara dig.
Men hur mycket information behöver modellen?
Samtal med utövare avslöjade deras intuition: indata var ~20 gånger större än output.
Men mina experiment med Gemini-verktygets kommandoradsgränssnitt, som matar ut detaljerad tokenstatistik, avslöjade att det är mycket högre.
300x i genomsnitt och upp till 4000x.
Här är anledningen till att det här höga input-to-output-förhållandet är viktigt för alla som bygger med AI:
Cost Management handlar om input. Med API-anrop prissatta per token innebär ett förhållande på 300:1 att kostnaderna dikteras av sammanhanget, inte svaret. Denna prisdynamik gäller för alla större modeller.
På OpenAI:s prissida är utdatatoken för GPT-4.1 4 gånger så dyra som indatatokens. Men när insatsen är 300 gånger mer omfattande är insatskostnaderna fortfarande 98 % av den totala räkningen.
Latens är en funktion av kontextstorleken. En viktig faktor som avgör hur länge en användare väntar på ett svar är den tid det tar för modellen att bearbeta indata.
Det omdefinierar den tekniska utmaningen. Denna observation bevisar att den största utmaningen med att bygga med LLM inte bara är att uppmana. Det är kontextteknik.
Den kritiska uppgiften är att bygga effektiv datahämtning och kontext – att skapa pipelines som kan hitta den bästa informationen och destillera den till minsta möjliga tokenfotavtryck.
Cachelagring blir verksamhetskritisk. Om 99 % av token finns i indata går byggandet av ett robust cachelagringslager för ofta hämtade dokument eller vanliga frågekontexter från ett "trevligt att ha" till ett grundläggande arkitektoniskt krav för att skapa en kostnadseffektiv och skalbar produkt.
För utvecklare innebär detta att fokus på inputoptimering är en viktig hävstång för att kontrollera kostnaderna, minska latensen och i slutändan bygga en framgångsrik AI-driven produkt.




4,2K
Igår lämnade Figma in sin vackert designade S-1.
Det avslöjar en produktledd tillväxtverksamhet (PLG) med en anmärkningsvärd bana. Figmas plattform för samarbetsverktyg för design skakade om designmarknaden, som länge dominerats av Adobe.
Så här står sig de två företagen när det gäller nyckeltal för deras senaste räkenskapsår [se bifogad bild]:
Figma är ungefär 3 % så stort som Adobe men växer 4 gånger snabbare. Bruttomarginalerna är identiska. Figmas 132% Net Dollar Retention är den högsta decilen.
Uppgifterna visar också att Figmas utgifter för forskning och utveckling nästan är lika stora som utgifterna för försäljning och marknadsföring.
Det här är PLG-modellen när den är som bäst. Figmas produkt är dess primära marknadsföringsmotor. Dess samarbetskaraktär främjar viral användning nedifrån och upp, vilket leder till en klassens bästa försäljningseffektivitet på 1,0. För varje dollar som spenderades på försäljning och marknadsföring 2023 genererade Figma en dollar i ny bruttovinst 2024. Adobes blandade bottoms-up- och försäljningsledda modell ger en mer typisk 0,39.
S-1 belyser också risker. Den viktigaste är konkurrensen från AI-produkter. Även om Figma investerar kraftigt i AI sänker tekniken barriären för nya aktörer. Figmas försvar är dess expanderande plattform – med produkter som FigJam, Dev Mode, och nu Slides, Sites och Make.
Dessa nya produktkategorier har drivit många PLG AI-mjukvaruföretag till tiotals och hundratals miljoner i ARR på rekordtid.
Med tanke på dess höga tillväxt och unika affärsmodell, hur bör marknaden värdera Figma? Vi kan använda en linjär regression baserad på offentliga SaaS-företag för att förutsäga dess framtida intäktsmultipel. Modellen visar en blygsam korrelation mellan intäktstillväxt och värderingsmultiplar (R² = 0,23).
Figma, med sin tillväxt på 48 %, skulle vara det snabbast växande mjukvaruföretaget i denna kohort, om man bortser från NVIDIA. Ett övertygande argument kan göras för att Figma bör få en högre värdering än förutspått. Dess kombination av hypertillväxt, klassens bästa försäljningseffektivitet och en passionerad, självförökande användarbas är sällsynt.
Om vi använder vår modells förutspådda multipel på 19,9x för att uppskatta framtida intäkter får vi en uppskattad IPO-värdering på cirka 21 miljarder USD2 – en premie jämfört med de 20 miljarder USD som Adobe erbjöd företaget 2022.
S-1 berättar historien om ett kategoridefinierande företag som byggde en kollaborativ designprodukt, utvecklade en fenomenal PLG-rörelse och aktivt använder sig av AI.
Uppsägningsavgiften på 1,0 miljarder USD från Adobe mottogs i december 2023 och registrerades som "Övriga intäkter, netto" under räkenskapsåret 2024 (som slutade den 31 januari 2024). Den stora aktiebaserade kompensationsavgiften på nästan 900 miljoner dollar är relaterad till ett uppköpserbjudande för anställda i maj 2024. Båda dessa tas bort i de icke-GAAP-data som citeras ovan.
Genom att ta Figmas 48,3 % efterföljande tolvmånaderstillväxt och diskontera den med 15 % (för att ta hänsyn till en naturlig tillväxtavmattning) ger modellen en framtida tillväxtuppskattning på 41,1 %. Detta skulle innebära terminsintäkter på cirka 1,1 miljarder dollar.



6,35K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda