Agentes que se auto-orquestram nativamente, gerindo o seu próprio contexto, ferramentas e sub-agentes, são a próxima grande desbloqueio no desempenho dos LLM. Neste momento, um engenheiro habilidoso que constrói um suporte otimizado, com um fluxo de dados cuidadoso, separação de preocupações, gestão de sub-agentes, etc., pode fazer melhorias dramáticas em relação à linha de base para tarefas específicas. Se um modelo pudesse fazer isso por si mesmo, seria um grande passo em frente. Você dá-lhe um objetivo e um conjunto de ferramentas, e ele descobre a melhor maneira de se orquestrar para realizar a tarefa. Por exemplo, estou a construir um cientista de IA muito primitivo que vou tornar open-source em breve. A maior parte do trabalho não está no prompt, está no suporte… o que o orquestrador vê, o que os sub-agentes veem, o que é partilhado entre eles e quando, onde resumimos em vez de passar dados brutos, e quais ferramentas cada agente controla. Fazer isso permite-me melhorar dramaticamente o que o modelo pode fazer por conta própria. Se um modelo puder efetivamente desenhar o seu próprio suporte para um determinado problema, seria um enorme passo em frente. A minha aposta: modelos auto-orquestrantes… aqueles que gerem o seu próprio contexto, ferramentas e sub-agentes, moverão a fronteira quase tanto quanto o salto de chatbot → raciocínio fez. Talvez mais.
Apenas a fazer a minha previsão aqui… Estou bastante confiante nisto. Alguém pode prototipar isto hoje (talvez eu faça!) fazendo com que um modelo escreva um harness para um determinado prompt em Python, encaixando isso num sandbox @daytonaio ou algo semelhante, e depois passando o prompt para o harness.
102