Nowy dokument analizuje dane dotyczące użycia API LLM z ponad 100T tokenów (OpenRouter + Azure). Kluczowe ustalenia: -Wzrost podaży w 2025 roku: 253→651 modeli, dostawcy inferencji 27→90, niektóre modele open-source obsługiwane przez ponad 20 dostawców. -Paradoks cenowy: 1000x deflacja od 2023 SOTA, ale średnie wydatki na token pozostają na stałym poziomie. Użytkownicy oszczędzają, kupując więcej inteligencji, a nie większą objętość. -Modele open-source są o 90% tańsze przy równoważnej jakości benchmarku, a mimo to mają mniej niż 30% udziału. Różnicowanie niecenowe (wiarygodność, narzędzia, atmosfera) jest rzeczywiste. -Odsetek rezygnacji jest ekstremalny: najlepszy model utrzymuje przewagę tylko przez kilka miesięcy przed zastąpieniem. Dziesiątka najlepszych dzisiaj miała 20% udziału 4 miesiące temu, a 10 miesięcy temu nie istniała. Żaden zwycięzca nie dominuje. -Chęć płacenia różni się znacznie w zależności od przypadku użycia: SEO płaci 1,40 USD/M tokenów, tłumaczenie 0,17 USD, prawo 0,16 USD. Większość użycia pozostaje znacznie poniżej granicy inteligencji. -Krótko-terminowa elastyczność cenowa ~1,1, więc na razie brak paradoksu Jevonsa. Obniżki cen nie wywołają eksplozji popytu na obliczenia. Tarcie integracyjne jest ograniczeniem, a nie koszt.