é isso... A Amazon provou que modelos de linguagem pequenos podem superar LLMs 500x maiores em chamadas de ferramentas agentivas. A NVIDIA já mostrou essa ideia antes, e esta é mais uma prova de que o ajuste fino correto pode tornar SLMs melhores em aplicações agentivas do que LLMs, com uma fração do custo. as empresas focadas em agentes devem adotar mais o desenvolvimento (conjunto de dados, avaliações, pós-treinamento, design) de LLMs este ano. elas têm os dados e os playgrounds certos para esses LLMs. é economicamente sem sentido usar modelos grandes proprietários na maioria dos casos de uso agentivos. leia este artigo e também o da NVIDIA ("Modelos de Linguagem Pequenos são o Futuro da IA Agentiva") para se convencer.