Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🎉 "A essência da programação de IA é gerenciar o contexto"
Esta frase é tão útil que explica o processo de desenvolvimento e as tendências futuras dos aplicativos de IA
Se LLM é CPU, então o contexto é memória,
A capacidade de memória é limitada e a escolha dos dados tornou-se a chave para a qualidade da saída do modelo
❓ O que será armazenado no contexto da memória? Como otimizá-los?
1️⃣ Palavras de prompt do sistema
A otimização é o mesmo conjunto de palavras de prompt de antes, portanto, os elementos principais de prompts excelentes devem ser organizados. Mas a engenharia rápida não é mais nova, a engenharia de contexto é popular e todos os aplicativos de IA estão seguindo o exemplo
2️⃣ Lista de ferramentas
No início, os aplicativos de IA tinham apenas algumas ferramentas principais (leitura e gravação de arquivos, execução de comandos) e, posteriormente, expandiram muitas ferramentas e serviços externos por meio do MCP
3️⃣ Documentação (KB/RAG)
A documentação relacionada ao problema também é importante, e IDEs como o Cursor salvarão automaticamente os arquivos abertos no momento, os arquivos abertos recentemente, os arquivos relacionados ao problema e os códigos-chave recuperados no contexto
Além disso, o projeto de contexto gerenciará automaticamente os dados da memória, assim como a operação de limpeza da memória, substituirá os dados inúteis, colocará os dados úteis na frente, aumentará o peso, etc
❓ Tudo isso parece bom, por que o CC fez um subagente novamente?
À medida que a conversa avança, há cada vez mais conteúdo no contexto, e ele está prestes a estourar!
Para responder à pergunta, o LLM pode chamar a ferramenta várias vezes (como ler um arquivo), e a ferramenta retorna o resultado + conteúdo do arquivo carregado, adicionando-o constantemente ao contexto.
...
Melhores
Classificação
Favoritos

