Ny artikel analyserar 100T+ tokens av LLM API-användningsdata (OpenRouter + Azure). Viktiga resultat: -Tillgången exploderade 2025: 253→651 modeller, inferensleverantörer 27→90, vissa open source-modeller betjänas av 20+ leverantörer -Prisparadox: 1000x deflation sedan 2023 SOTA, men genomsnittskostnaden per token är oförändrad. Användare får spara pengar genom att köpa mer intelligens, inte mer volym. -Öppen källkod är 90 % billigare med motsvarande benchmarkkvalitet men har ändå <30 % andel. Icke-prisdifferentiering (tillförlitlighet, verktyg, känsla) är verklig. -Churn är extrem: toppmodellen håller bara bly i månader innan deplacementet. Dagens topp 10 hade 20 % andel för 4 månader sedan, men fanns inte för 10 månader sedan. Ingen vinnaren tar allt. -Betalningsviljan varierar kraftigt beroende på användningsfall: SEO betalar 1,40 dollar/miljon i token, översättning 0,17 dollar, laglig 0,16 dollar. De flesta användningar ligger långt under frontier intelligence. -Kortsiktig priselasticitet ~1,1, så ingen Jevons-paradox (ännu). Prissänkningar kommer inte att utlösa en explosiv efterfrågan på datorer. Integrationsfriktion är bindningsbegränsningen, inte kostnaden.