Ny artikkel analyserer 100T+ tokens av LLM API-bruksdata (OpenRouter + Azure). Viktige funn: -Tilbudet eksploderte i 2025: 253→651 modeller, inferensleverandører 27→90, noen åpen kildekode-modeller betjent av 20+ leverandører -Prisparadoks: 1000x deflasjon siden 2023 SOTA, men gjennomsnittlig forbruk per token er flatt. Brukere får sparepengene ved å kjøpe mer etterretning, ikke mer volum. -Åpen kildekode er 90 % billigere med tilsvarende benchmark-kvalitet, men har likevel <30 % andel. Ikke-prisdifferensiering (pålitelighet, verktøy, stemning) er reell. -Omsetningen er ekstrem: toppmodellen holder bare bly i flere måneder før deplasement. Dagens topp 10 hadde 20 % andel for 4 måneder siden, men eksisterte ikke for 10 måneder siden. Ingen vinner tar alt. -Betalingsvilje varierer kraftig etter bruk: SEO betaler 1,40 dollar per million tokens, oversettelse 0,17 dollar, lovlig 0,16 dollar. Det meste av bruken holder seg godt under grenseintelligens. -Kortsiktig priselastisitet ~1,1, så ingen Jevons-paradoks (ennå). Priskutt vil ikke utløse eksplosiv etterspørsel etter datakraft. Integrasjonsfriksjon er bindingsbegrensningen, ikke kostnaden.