Novo artigo analisa 100T+ tokens de dados de uso da API LLM (OpenRouter + Azure). Principais descobertas: -Oferta explodiu em 2025: 253→651 modelos, provedores de inferência 27→90, alguns modelos open-source atendidos por 20+ provedores -Paradoxo de preços: deflação de 1000 vezes desde SOTA em 2023, mas o gasto médio por token permanece estável. Os usuários economizam comprando mais inteligência, não mais volume. -O código aberto é 90% mais barato com qualidade equivalente de benchmark, mas detém <30% de participação. A diferenciação de não preço (confiabilidade, ferramentas, vibrações) é real. -A batidilha é extrema: o modelo topo só mantém chumbo por meses antes do deslocamento. O top 10 de hoje tinha 20% de participação há 4 meses, não existia há 10 meses. Nenhum vencedor leva tudo. -A disposição para pagar varia muito de acordo com o caso de uso: SEO paga $1,40/M em tokens, tradução $0,17, legal $0,16. A maior parte do uso permanece bem abaixo da inteligência de fronteira. -Elasticidade de preço no curto prazo ~1,1, então ainda não existe paradoxo de Jevons. Cortes de preço não vão desencadear uma demanda explosiva por computação. O atrito de integração é a restrição de ligação, não o custo.