Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🎉 "A essência da programação AI é gerenciar o contexto"
Esta frase é muito útil, pois pode explicar o processo de desenvolvimento e as tendências futuras das aplicações de AI.
Se dissermos que LLM é a CPU, então o contexto é a memória,
e a capacidade da memória é limitada, a escolha dos dados torna-se a chave para a qualidade da saída do modelo.
❓ O que será armazenado nessa memória de contexto? Como devemos otimizá-la?
1️⃣ Palavras-chave do sistema
A otimização é a mesma abordagem da engenharia de palavras-chave anterior, portanto, os elementos centrais de boas palavras-chave devem ser organizados. Mas a engenharia de palavras-chave já não é novidade, a engenharia de contexto é o que está em alta, todas as aplicações de AI estão acompanhando.
2️⃣ Lista de ferramentas
Se as informações de contexto forem insuficientes, será necessário chamar ferramentas para obtê-las. No início, as aplicações de AI tinham apenas algumas ferramentas principais (ler e escrever arquivos, executar comandos), mas depois, através do MCP, muitas ferramentas e serviços externos foram expandidos.
3️⃣ Arquivos (base de conhecimento/rag)
Documentos relacionados ao problema também são muito importantes. IDEs como Cursor automaticamente salvam os arquivos abertos atualmente, os arquivos abertos recentemente, os arquivos relacionados ao problema e o código-chave recuperado no contexto.
Além disso, a engenharia de contexto gerencia automaticamente os dados da memória, assim como uma operação de limpeza de memória, dados inúteis são substituídos, enquanto dados úteis são priorizados, aumentando seu peso, etc.
❓ Tudo isso parece ótimo, por que o cc criou um subagente?
À medida que a conversa avança, o conteúdo no contexto se acumula, quase explodindo!
Para responder a perguntas, o LLM pode chamar ferramentas várias vezes (por exemplo, ler arquivos), os resultados das ferramentas + o conteúdo dos arquivos carregados são constantemente adicionados ao contexto, o contexto do agente principal pode facilmente ficar sobrecarregado, a qualidade da saída do modelo começa a cair, e até mesmo alucinações podem ocorrer.
...
Top
Classificação
Favoritos

