É isso... A Amazon provou que modelos de linguagem pequenos podem superar LLMs 500 vezes maiores em chamadas de ferramentas agentes. A NVIDIA já mostrou essa ideia antes, e isso é mais uma prova de que o ajuste fino certo pode tornar SLMs melhores em aplicações agenticas do que LLMs, por uma fração do custo. Empresas focadas em agentes devem adotar mais o desenvolvimento (conjunto de dados, avaliações, pós-treinamento, design) de LLMs este ano. Eles têm os dados e os playgrounds certos para esses LLMs. É economicamente insensato usar modelos grandes proprietários na maioria dos casos de uso agente. leia este artigo e também o da NVIDIA ("Small Language Models are the Future of Agentic AI") para se convencer.