Un nuevo documento analiza más de 100T+ tokens de datos de uso de API de LLM (OpenRouter + Azure). Hallazgos clave: -La oferta explotó en 2025: 253→651 modelos, proveedores de inferencia 27→90, algunos modelos de código abierto servidos por más de 20 proveedores. -Paradoja de precios: 1000x deflación desde el SOTA de 2023, pero el gasto promedio por token se mantiene plano. Los usuarios ahorran comprando más inteligencia, no más volumen. -El código abierto es un 90% más barato a calidad de referencia equivalente, pero tiene menos del 30% de participación. La diferenciación no basada en precios (fiabilidad, herramientas, ambiente) es real. -La rotación es extrema: el modelo principal solo mantiene su liderazgo durante meses antes de ser desplazado. Los 10 principales de hoy tenían un 20% de participación hace 4 meses, no existían hace 10 meses. No hay un ganador que se lo lleve todo. -La disposición a pagar varía enormemente según el caso de uso: SEO paga $1.40/M tokens, traducción $0.17, legal $0.16. La mayor parte del uso se mantiene muy por debajo de la inteligencia de frontera. -La elasticidad del precio a corto plazo es ~1.1, por lo que no hay paradoja de Jevons (aún). Las reducciones de precios no desencadenarán una demanda explosiva de computación. La fricción de integración es la restricción vinculante, no el costo.