Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tomasz Tunguz
Dette var så gøy, Mario. Takk for at jeg var med på showet for å snakke om alt som skjer på markedet!

Mario Gabriele 🦊22. juli, 20:22
Vår siste episode med Tomasz Tunguz er live!
Tiåret med data
@ttunguz har brukt nesten to tiår på å gjøre data om til investeringsinnsikt. Etter å ha støttet Looker, Expensify og Monte Carlo hos Redpoint Ventures, lanserte han @Theoryvc i 2022 med en dristig visjon: bygge et "investeringsselskap" der forskere, ingeniører og operatører sitter sammen med investorer, og lager markedskart i sanntid og interne AI-verktøy. Debutfondet hans stengte på 238 millioner dollar, etterfulgt bare 19 måneder senere av et andre fond på 450 millioner dollar. Theory er sentrert om data, AI og kryptoinfrastruktur, og opererer i hjertet av dagens mest betydningsfulle teknologiske skift. Vi utforsker hvordan data omformer risikokapital, hvorfor tradisjonelle investeringsmodeller blir forstyrret, og hva som skal til for å bygge et firma som ikke bare forutsier fremtiden, men aktivt bidrar til å skape den.
Hør nå:
• YouTube:
• Spotify:
•Eple:
En stor takk til de utrolige sponsorene som gjør podcasten mulig:
✨ Brex — Bankløsningen for startups:
✨ Generalist+ — Viktig intelligens for moderne investorer og teknologer:
Vi utforsker:
→ Hvordan Theorys «investerende selskap»-modell fungerer
→ Hvorfor kryptobørser kan skape en levedyktig vei til offentlige markeder for små programvareselskaper
→ Den truende strømkrisen – hvorfor datasentre kan forbruke 15 % av amerikansk elektrisitet innen fem år
→ Stablecoins' raske oppstigning når store banker ruter 5-10 % av amerikanske dollar gjennom dem
→ Hvorfor Ethereum står overfor en eksistensiell utfordring som ligner på at AWS taper terreng til Azure i AI-æraen
→ Hvorfor Tomasz tror dagens håndfull agenter vil bli 100+ digitale medarbeidere innen utgangen av året
→ Hvorfor Meta satser milliarder på AR-briller for å endre hvordan vi samhandler med maskiner
→ Hvordan Theory Ventures bruker AI for å akselerere markedsundersøkelser, avtaleanalyse og investeringsbeslutninger
… Og mye mer!
7,69K
OpenAI mottar i gjennomsnitt 1 spørring per amerikaner per dag.
Google mottar omtrent 4 søk per amerikaner per dag.
Siden den gang har 50 % av Google-søkene AI-oversikter, noe som betyr at minst 60 % av amerikanske søk nå er AI.
Det har tatt litt lengre tid enn jeg forventet før dette skulle skje. I 2024 spådde jeg at 50 % av forbrukersøk ville være AI-aktivert. (
Men AI har kommet i søket.
Hvis Googles søkemønstre er noen indikasjon, er det en maktlov i søkeatferd. SparkToros analyse av Googles søkeatferd viser at den øverste tredjedelen av amerikanere som søker, utfører oppover 80 % av alle søk – noe som betyr at AI-bruk sannsynligvis ikke er jevnt fordelt – som fremtiden.
Nettsteder og bedrifter begynner å føle virkningene av dette. The Economists artikkel "AI dreper nettet. Kan noe redde det?» fanger tidsånden i en overskrift. (
Et overveldende flertall av amerikanere søker nå med AI. Andreordenseffektene fra endrede søkemønstre kommer i andre halvdel av dette året, og flere vil spørre: "Hva skjedde med trafikken min?" (
AI er en ny distribusjonskanal, og de som griper den vil ta markedsandeler.
- William Gibson så mye lenger inn i fremtiden!
- Dette er basert på en midtpunktsanalyse av SparkToro-diagrammet, er en veldig enkel analyse, og har noen feil som resultat.

8,55K
Når jeg jobber med AI, stopper jeg før jeg skriver noe i boksen for å stille meg selv et spørsmål: hva forventer jeg av AI?
2x2 til unnsetning! Hvilken boks er jeg i?
På den ene aksen, hvor mye kontekst jeg gir: ikke veldig mye til ganske mye. På den andre siden, om jeg skal se på AI-en eller la den kjøre.
Hvis jeg gir veldig lite informasjon og lar systemet kjøre: 'undersøk Forward Deployed Engineer-trender', får jeg bruk-og-kast-resultater: brede oversikter uten relevante detaljer.
Å kjøre det samme prosjektet med en rekke korte spørsmål gir en iterativ samtale som lykkes - en utforskning.
«Hvilke selskaper har implementert Forward Deployed Engineers (FDE)? Hva er den typiske bakgrunnen til FDE-er? Hvilke typer kontraktsstrukturer og virksomheter egner seg til dette arbeidet?»
Når jeg har en veldig lav toleranse for feil, gir jeg omfattende kontekst og jobber iterativt med AI. For blogginnlegg eller økonomisk analyse deler jeg alt (nåværende utkast, tidligere skrifter, detaljerte krav) og fortsetter deretter setning for setning.
Å la en agent løpe fritt krever å definere alt på forhånd. Jeg lykkes sjelden her fordi arbeidet på forhånd krever enorm klarhet - eksakte mål, omfattende informasjon og detaljerte oppgavelister med valideringskriterier - en disposisjon.
Disse spørsmålene ender opp med å se ut som produktkravdokumentene jeg skrev som produktsjef.
Svaret på "hva forventer jeg?" vil bli enklere ettersom AI-systemer får tilgang til mer av informasjonen min og blir bedre til å velge relevante data. Etter hvert som jeg blir bedre til å formulere hva jeg faktisk vil, forbedres samarbeidet.
Jeg tar sikte på å flytte mange flere av spørsmålene mine fra den øverste venstre bøtta - hvordan jeg ble trent med Google-søk - til de tre andre kvadrantene.
Jeg forventer også at denne vanen vil hjelpe meg å jobbe bedre med mennesker.

2,9K
Den lille svarte boksen i midten er maskinlæringskode.
Jeg husker at jeg leste Googles 2015 Hidden Technical Debt in ML-artikkel og tenkte på hvor lite av en maskinlæringsapplikasjon som var faktisk maskinlæring.
Det store flertallet var infrastruktur, datahåndtering og operasjonell kompleksitet.
Med begynnelsen av AI så det ut til at store språkmodeller ville subsumere disse boksene. Løftet var enkelhet: slipp inn en LLM og se den håndtere alt fra kundeservice til kodegenerering. Ingen flere komplekse pipeliner eller sprø integrasjoner.
Men når vi bygger interne applikasjoner, har vi observert en lignende dynamikk med AI.
Agenter trenger mye kontekst, som et menneske : hvordan er CRM strukturert, hva legger vi inn i hvert felt - men input er dyrt Hungry, Hungry AI-modellen.
Å redusere kostnadene betyr å skrive deterministisk programvare for å erstatte resonnementet til AI.
For eksempel betyr automatisering av e-postadministrasjon å skrive verktøy for å lage Asana-oppgaver og oppdatere CRM.
Etter hvert som antallet verktøy øker utover ti eller femten verktøy, fungerer ikke verktøykall lenger. På tide å spinne opp en klassisk maskinlæringsmodell for å velge verktøy.
Så er det å se på systemet med observerbarhet, evaluere om det er effektivt og rute til riktig modell. I tillegg er det en hel kategori programvare rundt å sørge for at AI gjør det den skal.
Rekkverk forhindrer upassende respons. Hastighetsbegrensning hindrer kostnadene i å komme ut av kontroll når et system går galt.
Informasjonsinnhenting (RAG - retrieval augmented generation) er avgjørende for ethvert produksjonssystem. I e-postappen min bruker jeg en LanceDB-vektordatabase for å finne alle e-poster fra en bestemt avsender og matche tonen deres.
Det finnes andre teknikker for kunnskapsstyring rundt graf-RAG og spesialiserte vektordatabaser.
I det siste har hukommelse blitt mye viktigere. Kommandolinjegrensesnittene for AI-verktøy lagrer samtaleloggen som markdown-filer.
Når jeg publiserer diagrammer, vil jeg ha Theory Ventures-bildeteksten nederst til høyre, en bestemt skrifttype, farger og stiler. Disse er nå alle lagret i .gemini- eller .claude-filer i en rekke overlappende kataloger.
Den opprinnelige enkelheten til store språkmodeller har blitt subsumert av produksjonskompleksitet på bedriftsnivå.
Dette er ikke identisk med forrige generasjon maskinlæringssystemer, men det følger en klar parallell. Det som så ut til å være en enkel "AI-magisk boks" viser seg å være et isfjell, med det meste av ingeniørarbeidet skjult under overflaten.


3,64K
Hvis 2025 er agentenes år, vil 2026 helt sikkert tilhøre agentledere.
Agentledere er personer som kan administrere team med AI-agenter. Hvor mange kan en person lykkes med?
Jeg kan knapt administrere 4 AI-agenter samtidig. De ber om avklaring, ber om tillatelse, utsteder nettsøk – alt krever min oppmerksomhet. Noen ganger tar en oppgave 30 sekunder. Andre ganger, 30 minutter. Jeg mister oversikten over hvilken agent som gjør hva og halvparten av arbeidet blir kastet bort fordi de feiltolker instruksjoner.
Dette er ikke et ferdighetsproblem. Det er et verktøyproblem.
Fysiske roboter gir ledetråder om robotlederens produktivitet. MIT publiserte en analyse i 2020 som antydet at den gjennomsnittlige roboten erstattet 3,3 menneskelige jobber. I 2024 rapporterte Amazon at pickpack- og skipsroboter erstattet 24 arbeidere.
Men det er en kritisk forskjell: AI er ikke-deterministisk. AI-agenter tolker instruksjoner. De improviserer. Noen ganger ignorerer de instruksjoner helt. En Roomba kan bare drømme om den kreative friheten til å ignorere stuen din og bestemme seg for at garasjen trenger oppmerksomhet i stedet.
Ledelsesteori veileder ofte team til et kontrollspenn på 7 personer.
Når jeg snakker med noen bedre agentledere, har jeg lært at de bruker en agentinnboks, et prosjektstyringsverktøy for å be om AI-arbeid og evaluere det. I programvareteknikk tjener Githubs pull-forespørsler eller lineære billetter dette formålet.
Svært produktive AI-programvareingeniører administrerer 10-15 agenter ved å spesifisere 10-15 oppgaver i detalj, sende dem til en AI, vente til ferdigstillelse og deretter gjennomgå arbeidet. Halvparten av arbeidet kastes, og startes på nytt med en forbedret ledetekst.
Agentinnboksen er ikke populær - ennå. Det er ikke allment tilgjengelig.
Men jeg mistenker at det vil bli en viktig del av produktivitetsstabelen for fremtidige agentledere fordi det er den eneste måten å holde styr på arbeidet som kan komme inn når som helst.
Hvis ARR per ansatt er den nye forfengelighetsberegningen for oppstartsbedrifter, kan agenter administrert per person bli forfengelighetsproduktivitetsmålingen til en arbeider.
Hvor mange agenter tror du at du kan klare på 12 måneder? 10? 50? 100? Kan du administrere en agent som administrerer andre agenter?

7,84K
Det siste tiåret var den største posten i enhver oppstarts FoU-budsjett forutsigbart talent. Men AI presser seg inn på P&L.
Hvor mye bør en oppstart bruke på AI som en prosentandel av forsknings- og utviklingsutgiftene?
10%? 30%? 60?
Det er tre faktorer å vurdere. For det første gjennomsnittslønnen for en programvareingeniør i Silicon Valley. For det andre er den totale kostnaden for AI som brukes av den ingeniøren. Cursor er nå på $200 per måned for deres Ultra-plan og anmeldelser av Devin foreslår $500 per måned. For det tredje, antall agenter en ingeniør kan administrere.
En første passering : (første bilde)
Men abonnementskostnadene er sannsynligvis lave. I løpet av de siste dagene har jeg lekt mye med AI-kodeagenter, og jeg fikk en regning på $1,000 i løpet av fem dager! 😳😅
Så la oss oppdatere tabellen og anta ytterligere $1000 per måned per ingeniør.
Så for en typisk oppstart kan et estimat på 10 til 15 % av de totale FoU-utgiftene i dag tenkes å brukes til AI.
Variantene vil være mye bredere i praksis ettersom vi alle lærer å bruke AI bedre og det trenger inn i mer av organisasjonen. Mindre selskaper som er AI-innfødte fra begynnelsen, vil sannsynligvis ha betydelig høyere forholdstall.
Hvis du er interessert i å delta i en anonym undersøkelse, vil jeg publisere resultatene hvis utvalgsstørrelsen er stor nok til å ha et statistisk signifikant resultat.
Undersøkelsen er her:
Dette er en grovt forenklet modell der vi kun gjennomgår lønn, ikke inkludert fordeler, maskinvare, utviklings- og testinfrastruktur osv.
Dette er et estimat basert på rabattert personlig erfaringskoding.


1,94K
Det siste tiåret var den største posten i enhver oppstarts FoU-budsjett forutsigbart talent. Men AI presser seg inn på P&L.
Hvor mye bør en oppstart bruke på AI som en prosentandel av forsknings- og utviklingsutgiftene?
10%? 30%? 60?
Det er tre faktorer å vurdere. For det første gjennomsnittslønnen for en programvareingeniør i Silicon Valley. For det andre er den totale kostnaden for AI som brukes av den ingeniøren. Cursor er nå på $200 per måned for deres Ultra-plan og anmeldelser av Devin foreslår $500 per måned. For det tredje, antall agenter en ingeniør kan administrere.
En første passering : (første bilde)
Men abonnementskostnadene er sannsynligvis lave. I løpet av de siste dagene har jeg lekt mye med AI-kodeagenter, og jeg fikk en regning på $1,000 i løpet av fem dager! 😳😅
Så la oss oppdatere tabellen og anta ytterligere $1000 per måned per ingeniør.
Så for en typisk oppstart kan et estimat på 10 til 15 % av de totale FoU-utgiftene i dag tenkes å brukes til AI.
Variantene vil være mye bredere i praksis ettersom vi alle lærer å bruke AI bedre og det trenger inn i mer av organisasjonen. Mindre selskaper som er AI-innfødte fra begynnelsen, vil sannsynligvis ha betydelig høyere forholdstall.
Hvis du er interessert i å delta i en anonym undersøkelse, vil jeg publisere resultatene hvis utvalgsstørrelsen er stor nok til å ha et statistisk signifikant resultat.
Undersøkelsen er her:
Dette er en grovt forenklet modell der vi kun gjennomgår lønn, ikke inkludert fordeler, maskinvare, utviklings- og testinfrastruktur osv.
Dette er et estimat basert på rabattert personlig erfaringskoding.


209
Når du spør AI, samler den relevant informasjon for å svare deg.
Men hvor mye informasjon trenger modellen?
Samtaler med utøvere avslørte deres intuisjon: inngangen var ~20 ganger større enn utgangen.
Men eksperimentene mine med Gemini-verktøyets kommandolinjegrensesnitt, som sender ut detaljert token-statistikk, avslørte at det er mye høyere.
300x i gjennomsnitt og opptil 4000x.
Her er grunnen til at dette høye input-to-output-forholdet er viktig for alle som bygger med AI:
Kostnadsstyring handler om input. Med API-kall priset per token, betyr et forhold på 300:1 at kostnadene dikteres av konteksten, ikke svaret. Denne prisdynamikken gjelder på tvers av alle større modeller.
På OpenAIs prisside er utgangstokens for GPT-4.1 4 ganger så dyre som inngangstokens. Men når innsatsen er 300 ganger mer omfangsrik, er innsatskostnadene fortsatt 98 % av den totale regningen.
Latens er en funksjon av kontekststørrelse. En viktig faktor som bestemmer hvor lenge en bruker venter på et svar, er tiden det tar modellen å behandle inndataene.
Det omdefinerer den tekniske utfordringen. Denne observasjonen beviser at kjerneutfordringen med å bygge med LLM-er ikke bare er tilskyndende. Det er kontekstteknikk.
Den kritiske oppgaven er å bygge effektiv datainnhenting og kontekst - lage pipelines som kan finne den beste informasjonen og destillere den til minst mulig token-fotavtrykk.
Bufring blir virksomhetskritisk. Hvis 99 % av tokenene er i inndataene, flyttes det å bygge et robust hurtigbufredlag for ofte hentede dokumenter eller vanlige spørringskontekster fra å være et «kjekt å ha» til et kjernearkitektonisk krav for å bygge et kostnadseffektivt og skalerbart produkt.
For utviklere betyr dette at fokus på inngangsoptimalisering er en kritisk spak for å kontrollere kostnader, redusere ventetid og til slutt bygge et vellykket AI-drevet produkt.




4,19K
I går arkiverte Figma sin vakkert designede S-1.
Den avslører en produktledet vekstvirksomhet (PLG) med en bemerkelsesverdig bane. Figmas samarbeidsdesignverktøyplattform forstyrret designmarkedet som lenge var dominert av Adobe.
Her er hvordan de to selskapene ligger an på nøkkeltall for deres siste regnskapsår [se vedlagt bilde]:
Figma er omtrent 3 % av størrelsen på Adobe, men vokser 4 ganger raskere. Bruttomarginene er identiske. Figmas 132 % netto dollarretensjon er den øverste desilen.
Dataene viser også at Figmas utgifter til forskning og utvikling nesten tilsvarer salgs- og markedsføringsutgifter.
Dette er PLG-modellen på sitt beste. Figmas produkt er dens primære markedsføringsmotor. Dens samarbeidende natur fremmer viral, bottoms-up-adopsjon, noe som fører til en førsteklasses salgseffektivitet på 1.0. For hver dollar brukt på salg og markedsføring i 2023, genererte Figma en dollar i ny bruttofortjeneste i 2024. Adobes blandede bottoms-up- og salgsledede modell gir en mer typisk 0,39.
S-1 fremhever også risiko. Den viktigste er konkurranse fra AI-produkter. Mens Figma investerer tungt i AI, senker teknologien barrieren for nye aktører. Figmas forsvar er den ekspanderende plattformen – med produkter som FigJam, Dev Mode, og nå Slides, Sites og Make.
Disse nye produktkategoriene har drevet mange PLG AI-programvareselskaper til titalls og hundrevis av millioner i ARR på rekordtid.
Gitt sin høye vekst og unike forretningsmodell, hvordan bør markedet verdsette Figma? Vi kan bruke en lineær regresjon basert på offentlige SaaS-selskaper for å forutsi fremtidig inntektsmultiplum. Modellen viser en beskjeden sammenheng mellom omsetningsvekst og verdsettelsesmultipler (R² = 0,23).
Figma, med sin vekst på 48 %, ville være det raskest voksende programvareselskapet i denne kohorten sett bort fra NVIDIA. Det kan argumenteres overbevisende for at Figma bør ha en høyere verdsettelse enn forutsagt. Kombinasjonen av hypervekst, klassens beste salgseffektivitet og en lidenskapelig, selvforplantende brukerbase er sjelden.
Ved å bruke modellens anslåtte 19,9x multippel for å estimere fremtidige inntekter gir en estimert børsnoteringsverdi på omtrent 21 milliarder dollar 2 – en premie til de 20 milliarder dollar Adobe tilbød selskapet i 2022.
S-1 forteller historien om et kategoridefinerende selskap som bygde et samarbeidende designprodukt, utviklet en fenomenal PLG-bevegelse og presser aktivt inn i AI.
Oppsigelsesgebyret på 1,0 milliarder dollar fra Adobe ble mottatt i desember 2023 og registrert som «Andre inntekter, netto» i regnskapsåret 2024 (som avsluttes 31. januar 2024). Den store aksjebaserte kompensasjonskostnaden på nesten 900 millioner dollar er relatert til et ansatttilbud i mai 2024. Begge disse er fjernet i ikke-GAAP-dataene sitert ovenfor.
Ved å ta Figmas 48,3 % etterfølgende tolvmåneders vekstrate og diskontere den med 15 % (for å ta hensyn til en naturlig vekstnedgang), produserer modellen et fremtidig vekstestimat på 41,1 %. Dette vil innebære fremtidige inntekter på rundt 1,1 milliarder dollar.



6,33K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til