Gli agenti che si auto-orchestrano nativamente, gestendo il proprio contesto, strumenti e sub-agenti, rappresentano il prossimo grande sblocco nelle prestazioni dei LLM. In questo momento, un ingegnere esperto che costruisce un'imbracatura ottimizzata, con un flusso di dati ben pensato, separazione delle preoccupazioni, gestione dei sub-agenti, ecc., può apportare miglioramenti drammatici rispetto alla baseline per compiti specifici. Se un modello potesse farlo da solo, sarebbe un grande passo avanti. Gli dai un obiettivo e un insieme di strumenti, e lui trova il modo ottimale per orchestrarsi per svolgere il compito. Ad esempio, sto costruendo un AI scienziato molto primitivo che aprirò come codice sorgente presto. Gran parte del lavoro non è nel prompt, ma nell'imbracatura... ciò che l'orchestratore vede, ciò che vedono i sub-agenti, cosa viene condiviso tra di loro e quando, dove riassumiamo rispetto a passare dati grezzi, e quali strumenti controlla ciascun agente. Fare questo mi consente di migliorare notevolmente ciò che il modello può fare da solo. Se un modello può progettare efficacemente la propria imbracatura per un dato problema, sarebbe un enorme passo avanti. La mia scommessa: modelli auto-orchestranti... quelli che gestiscono il proprio contesto, strumenti e sub-agenti, sposteranno il confine quasi tanto quanto il salto da chatbot → ragionamento ha fatto. Forse di più.
Sto solo facendo una previsione qui... Sono abbastanza sicuro di questo. Qualcuno può prototipare questo oggi (forse lo farò io!) facendo scrivere a un modello un harness per un dato prompt in Python, inserendolo in un sandbox @daytonaio o qualcosa di simile, e poi passando il prompt all'harness.
92