S pláčem, SOTA je jen tvář a musíte se spolehnout na "model dobytka a koně", aby to opravdu fungovalo Alex Atallah, zakladatel OpenRouteru, právě tweetoval, že jeho největším používáním je Kimi-K2-0711 (Kimi-K2-Instruct v červenci). Pak jsou tu openai-o4-mini-high, claude-3.7-sonnet, gpt-oss-120b, openai-o3 První věc, na kterou jsem se podíval, byla, jestli je ten člověk mimo internet a dlouho nepoužil nový velký model? Ale když se nad tím zamyslíte, ne, je to velmi špatné. To je skutečné využití Power User, je to tak skutečné Pokud v tuto chvíli najdete nějakého s dostatečně velkým kontextem (128K), silnou schopností používat (SWE-bench ověřeno > 65), silnou agentskou schopností (Tau2-bench > 65), obrovským množstvím znalostí (poměrně velké množství parametrů) a rychlými odpověďmi (ne-Thinking model), zdá se, že jediný Kimi-K2-Instruct je ten pravý. Zpětně řečeno, Alex Atallah pravděpodobně většinu své práce dělá s dokumenty (dlouhé kontexty, zejména s 13,4 milionem tokenů), používá nástroje k analýze a psaní reportů (agentní schopnosti), což Kimi-K2-Instruct umí a pak píše skripty (o4 a Claude-3.7-Sonnet pokrývají spodní část a dokonce je obalují jako agent, aby Kimi-k2 volal tyto modely k psaní skriptů). Nakonec Kimi-k2 splňuje také nejdůležitější bod, tedy ochranu soukromí dat, protože model je otevřeně vážený, může být nasazen na vlastním serveru a jakékoli citlivé informace nebudou uniknuty do OpenAI nebo Anthropic. Dokonce i následující GPT-OSS-120B by zde mělo být smysluplné. Pravděpodobně chápu, proč je nový velký model nyní plný agentních schopností a proč je přímé využití AI lidmi teprve ve střední fázi a pokročilí uživatelé už AI používají k ovládání AI. Agentově specifický model používaný k odesílání a přijímání všech AI kontextů bude nevyhnutelně nejpoužívanější. Původní vlákno: