新论文分析了100T+的LLM API使用数据(OpenRouter + Azure)。主要发现: - 供应在2025年激增:253→651个模型,推理提供商从27个增加到90个,一些开源模型由20多个提供商提供服务。 - 定价悖论:自2023年SOTA以来,价格下降了1000倍,但每个token的平均支出保持平稳。用户通过购买更多智能而不是更多数量来获得节省。 - 开源在相同基准质量下便宜90%,但市场份额不到30%。非价格差异化(可靠性、工具、氛围)是真实存在的。 - 用户流失极为严重:顶级模型仅在几个月内保持领先地位便被取代。今天的前10名在4个月前的市场份额为20%,10个月前根本不存在。没有赢家通吃的局面。 - 支付意愿因使用案例而异:SEO支付$1.40/M tokens,翻译$0.17,法律$0.16。大多数使用情况远低于前沿智能。 - 短期价格弹性约为1.1,因此尚未出现杰文斯悖论。降价不会引发爆炸性的计算需求。集成摩擦是限制因素,而不是成本。