Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Spencer Farrar
Partner @theoryvc |
Skulle starkt rekommendera att ansöka om att arbeta med @jmj & @seidtweets! De är otroliga människor och investerare!

Jeff Morris Jr.29 juli 2025
🚨 Drömjobbsvarning: Vi anställer en investeringspartner på Chapter One i San Francisco och det har aldrig funnits ett bättre tillfälle.
SF är ground zero för AI, och vi är i det med en ny fond redo att distribueras.
Det här är den roll jag önskar hade funnits när jag kom upp: riktigt ägande, att leda affärer och att arbeta med ett sammansvetsat, produktbesatt team.
Om du har väntat på att ta en större sving är det här ditt slag.

4,04K
Grattis till Lance-teamet! Glada över att arbeta med er!

LanceDB24 juni 2025
Today we’re announcing our $30 million Series A.
This round is led by @Theoryvc with support from @CRV , @ycombinator, @databricks, @runwayml , @ZeroPrimeVC , @swift_vc, and more. Your belief in a future powered by multimodal data brings us one step closer to that reality.

4,56K
Spencer Farrar delade inlägget
TL; DR: Vi byggde en transformatorbaserad betalningsgrundmodell. Det fungerar.
I åratal har Stripe använt maskininlärningsmodeller som tränats på diskreta funktioner (BIN, zip, betalningsmetod osv.) För att förbättra våra produkter för användarna. Och dessa funktions-för-funktions-ansträngningar har fungerat bra: +15 % konvertering, -30 % bedrägeri.
Men dessa modeller har begränsningar. Vi måste välja (och därför begränsa) de funktioner som övervägs av modellen. Och varje modell kräver uppgiftsspecifik utbildning: för auktorisering, för bedrägeri, för tvister och så vidare.
Med tanke på inlärningskraften hos generaliserade transformatorarkitekturer undrade vi om ett LLM-liknande tillvägagångssätt skulle kunna fungera här. Det var inte självklart att det skulle göra det – betalningar är som språk på vissa sätt (strukturella mönster som liknar syntax och semantik, tidsmässigt sekventiellt) och extremt olikt språk på andra (färre distinkta "tokens", kontextuell gleshet, färre organiseringsprinciper som liknar grammatiska regler).
Därför byggde vi en betalningsgrundmodell – ett självövervakat nätverk som lär sig täta, allmänna vektorer för varje transaktion, ungefär som en språkmodell bäddar in ord. Den är tränad på tiotals miljarder transaktioner och destillerar varje laddnings nyckelsignaler till en enda, mångsidig inbäddning.
Du kan tänka på resultatet som en stor distribution av betalningar i ett högdimensionellt vektorutrymme. Platsen för varje inbäddning samlar in omfattande data, inklusive hur olika element relaterar till varandra. Betalningar som har likheter klumpas naturligt ihop: transaktioner från samma kortutgivare är placerade närmare varandra, de från samma bank ännu närmare varandra och de som delar samma e-postadress är nästan identiska.
Dessa omfattande inbäddningar gör det betydligt lättare att upptäcka nyanserade, kontradiktoriska transaktionsmönster; och att bygga mer exakta klassificerare baserat på både egenskaperna hos en enskild betalning och dess relation till andra betalningar i sekvensen.
Ta till exempel korttestning. Under de senaste åren har traditionella ML-metoder (konstruera nya funktioner, märka nya attackmönster, snabbt träna om våra modeller) minskat korttestningen för användare på Stripe med 80 %. Men de mest sofistikerade korttestarna gömmer nya attackmönster i volymerna hos de största företagen, så de är svåra att upptäcka med dessa metoder.
Vi skapade en klassificerare som matar in sekvenser av inbäddningar från grundmodellen och förutsäger om trafiksegmentet är under en attack. Den utnyttjar transformatorarkitektur för att upptäcka subtila mönster över transaktionssekvenser. Och den gör allt detta i realtid så att vi kan blockera attacker innan de träffar företag.
Detta tillvägagångssätt förbättrade vår upptäcktsgrad för korttestattacker på stora användare från 59 % till 97 % över en natt.
Detta har en omedelbar effekt för våra stora användare. Men den verkliga kraften i grundmodellen är att samma inbäddningar kan tillämpas på andra uppgifter, som tvister eller auktoriseringar.
Kanske ännu mer grundläggande är att det antyder att betalningar har semantisk betydelse. Precis som ord i en mening har transaktioner komplexa sekventiella beroenden och latenta funktionsinteraktioner som helt enkelt inte kan fångas upp av manuell funktionsteknik.
Det visade sig att uppmärksamhet var allt som behövdes!
1,22M
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda