Plângând, SOTA este doar față și trebuie să te bazezi pe "modelul bovinelor și calului" ca să funcționeze cu adevărat Alex Atallah, fondatorul OpenRouter, tocmai a postat pe Twitter că cea mai mare utilizare a sa este Kimi-K2-0711 (Kimi-K2-Instruct în iulie). Apoi sunt openai-o4-mini-high, claude-3.7-sonet, gpt-oss-120b, openai-o3 Primul lucru la care m-am uitat a fost: este această persoană deconectată de pe Internet și nu a mai folosit un model mare nou de mult timp? Dar dacă te gândești cu atenție, nu, este foarte greșit. Asta e adevărata utilizare a Power User, e atât de reală Dacă găsești unul în acest moment, cu un context suficient de mare (128K), o abilitate puternică de utilizare (verificat SWE-bench > 65), abilitate puternică de agent (Tau2-bench > 65), o cantitate uriașă de cunoștințe (destul de mulți parametri) și răspunsuri rapide (modelul non-Thinking), se pare că doar Kimi-K2-Instruct este alesul. Invers, Alex Atallah probabil își face cea mai mare parte a muncii lucrând cu documente (contexte lungi, în special cu tokenuri de 13,4M), folosind unelte pentru a analiza și scrie rapoarte (capabilități Agent), ceea ce Kimi-K2-Instruct poate face, și apoi scrie scripturi (o4 și Claude-3.7-Sonnet acoperă partea de jos și chiar îl înfășoară ca agent pentru Kimi-k2 pentru a chema aceste modele să scrie scripturi). În cele din urmă, Kimi-k2 satisface și cel mai important punct, confidențialitatea datelor, deoarece modelul este open-weight, poate fi implementat pe propriul său server, iar orice informație sensibilă nu va fi scursă către OpenAI sau Anthropic. Chiar și următorul GPT-OSS-120B ar trebui să aibă sens aici. Probabil pot înțelege de ce noul model mare este acum plin de capabilități ale agenților, iar utilizarea directă a AI de către oameni este doar în stadiul intermediar, iar utilizatorii avansați au folosit deja AI pentru a opera AI. Un model specific agentului folosit pentru a trimite și primi toate contextele AI va fi inevitabil utilizarea principală. Firul original: