Chorando, SOTA é só rosto, e você tem que confiar no "modelo de gado e cavalo" para realmente funcionar Alex Atallah, fundador do OpenRouter, acabou de tuitar que seu maior uso é o Kimi-K2-0711 (Kimi-K2-Instruct em julho). Depois há openai-o4-mini-high, claude-3.7-sonet, gpt-oss-120b, openai-o3 A primeira coisa que olhei foi: essa pessoa está fora da internet, e não usa um modelo grande novo há muito tempo? Mas se você pensar bem, não, está muito errado. Esse é o verdadeiro uso do Power User, é tão real Se você encontrar um neste momento, com um contexto amplo o suficiente (128K), uma forte habilidade de uso (SWE-bench verificado > 65), forte habilidade de agente (Tau2-bench > 65), uma enorme quantidade de conhecimento (uma quantidade considerável de parâmetros) e respostas rápidas (modelo não-Thinking), parece que apenas Kimi-K2-Instrução é o escolhido. Ao contrário, Alex Atallah provavelmente faz a maior parte do seu trabalho trabalhando com documentos (contextos longos, especialmente com tokens de 13,4M), usando ferramentas para analisar e escrever relatórios (capacidades do Agent), o que o Kimi-K2-Instruct pode fazer, e então escrever scripts (o4 e Claude-3.7-Sonnet cobrem a parte inferior, e até envolvem como agente para o Kimi-k2 chamar esses modelos para escrever scripts). Por fim, o Kimi-k2 também atende ao ponto mais importante, a privacidade de dados, pois o modelo é aberto, pode ser implantado em seu próprio servidor e qualquer informação sensível não será vazada para a OpenAI ou Anthropic. Até mesmo o seguinte GPT-OSS-120B deve ter significado aqui. Provavelmente consigo entender por que o novo modelo grande agora está cheio de capacidades de agente, e o uso direto da IA por humanos está apenas no estágio intermediário, e usuários avançados já usaram IA para operar IA. Um modelo específico de agente usado para enviar e receber todos os contextos de IA será inevitavelmente o principal uso. Tópico original: