Llorando, la SOTA es solo cara, y tienes que confiar en el "modelo de ganado y caballo" para que realmente funcione Alex Atallah, fundador de OpenRouter, acaba de tuitear que su mayor uso es Kimi-K2-0711 (Kimi-K2-Instruct en julio). Luego están openai-o4-mini-high, claude-3.7-sonnet, gpt-oss-120b, openai-o3 Lo primero que miré fue, ¿esta persona está fuera de Internet y hace mucho que no usa un modelo grande nuevo? Pero si lo piensas bien, no, está muy equivocado. Ese es el verdadero uso de Power User, es tan real Si encuentras uno en este momento, con un contexto lo suficientemente amplio (128K), una fuerte capacidad de uso (verificado por SWE-bench > 65), una fuerte capacidad de agente (Tau2-bench > 65), una enorme cantidad de conocimiento (bastante gran cantidad de parámetros) y respuestas rápidas (modelo no pensante), parece que solo Kimi-K2-Instruct es el adecuado. Al revés, Alex Atallah probablemente hace la mayor parte de su trabajo trabajando con documentos (contextos largos, especialmente con tokens de 13,4M), usando herramientas para analizar y escribir informes (capacidades de agente), que Kimi-K2-Instruct puede hacer, y luego escribir scripts (o4 y Claude-3.7-Sonnet cubren la parte inferior, e incluso lo envuelven como agente para que Kimi-k2 llame a estos modelos para escribir scripts). Finalmente, Kimi-k2 también satisface el punto más importante: la privacidad de datos, porque el modelo es de peso abierto, puede desplegarse en su propio servidor y cualquier información sensible no se filtrará a OpenAI ni a Anthropic. Incluso el siguiente GPT-OSS-120B debería tener sentido aquí. Probablemente entiendo por qué el nuevo modelo grande está ahora lleno de capacidades de agentes, y el uso directo de IA por parte de humanos está solo en una etapa intermedia, y los usuarios avanzados ya han usado IA para operar IA. Un modelo específico de agente usado para enviar y recibir todos los contextos de IA será inevitablemente el uso principal. Hilo original: