Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ik heb gehuild, SOTA is slechts een façade, echt werk moet nog steeds gedaan worden met het "Niu Ma-model".
OpenRouter oprichter Alex Atallah heeft net een tweet gepost, waarin hij zegt dat hij het meest gebruik maakt van de Kimi-K2-0711 (de Kimi-K2-Instruct van juli).
Daarna zijn er openai-o4-mini-high, Claude-3.7-Sonnet, gpt-oss-120b, openai-o3.
Toen ik het voor het eerst zag, dacht ik, is deze persoon offline gegaan? Heeft hij al een tijd geen nieuwe grote modellen gebruikt?
Maar als ik er goed over nadenk, klopt er iets niet. Dit is de echte manier waarop een Power User het gebruikt, het is te waarachtig.
Als je op dit moment een model zoekt met een voldoende grote context (128K), dat functioneel is (SWE-Bench Verified > 65), sterke Agent-capaciteiten heeft (Tau2-bench > 65), een enorm kennisgebied heeft (met een aanzienlijke parameteromvang), en snel antwoord geeft (geen Thinking-model), lijkt het erop dat alleen Kimi-K2-Instruct dat kan bieden.
Als we dit terugredeneren, zou Alex Atallah waarschijnlijk het grootste deel van zijn werk besteden aan het verwerken van documenten (lange context, vooral met 13.4M tokens), het gebruik van tools voor analyse en het schrijven van rapporten (Agent-capaciteiten), en al deze dingen kunnen worden afgehandeld door Kimi-K2-Instruct. Vervolgens schrijft hij scripts (met o4 en Claude-3.7-Sonnet als back-up, of zelfs verpakt als Agent zodat Kimi-k2 deze modellen kan aanroepen om scripts te schrijven).
Ten slotte kan Kimi-k2 ook voldoen aan het belangrijkste punt, dat is gegevensprivacy, omdat het model open gewichten heeft en op eigen servers kan worden geïmplementeerd, waardoor geen gevoelige informatie aan OpenAI of Anthropic wordt gelekt. Zelfs het bestaan van GPT-OSS-120B zou ook hierin moeten liggen.
Ik kan nu ongeveer begrijpen waarom de nieuwe grote modellen zich richten op Agent-capaciteiten; mensen die AI direct gebruiken zijn slechts een tussenfase, geavanceerde gebruikers gebruiken AI al om AI te bedienen. Een model dat speciaal is ontworpen om alle AI-contexten te verzenden en ontvangen, zal ongetwijfeld het meest gebruikt worden.
Originele post:


Boven
Positie
Favorieten
