Det är det... Amazon har bevisat att små språkmodeller kan prestera 500 gånger bättre än större LLM:er i agentiska verktygsanrop. NVIDIA har redan visat denna idé tidigare, och detta är ytterligare ett bevis på att rätt finjustering kan göra SLM:er bättre i agentiska applikationer än LLM:er, till en bråkdel av kostnaden. agentfokuserade företag måste i år ta till sig mer utveckling (dataset, utvärderingar, efterutbildning, design) av LLM:er. de har datan och rätt lekplatser för dessa LLM:er. Det är ekonomiskt meningslöst att använda proprietära stora modeller i de flesta agentiska användningsfall. Läs denna artikel och även NVIDIA:s ("Small Language Models are the Future of Agentic AI") för att bli övertygad.