Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🎉 "Essensen av AI-programmering er å administrere kontekst"
Denne setningen er så nyttig at den forklarer utviklingsprosessen og fremtidige trender for AI-applikasjoner
Hvis LLM er CPU, er konteksten minne,
Minnekapasiteten er begrenset, og valg av data har blitt nøkkelen til kvaliteten på modellutgangen
❓ Hva vil bli lagret i sammenheng med minnet? Hvordan optimalisere dem?
1️⃣ Ord i systemet
Optimalisering er det samme settet med ledetekstord som før, så kjerneelementene i utmerkede ledetekster må ordnes. Men rask engineering er ikke lenger nytt, kontekstteknikk er populært, og alle AI-applikasjoner følger etter
2️⃣ Liste over verktøy
Til å begynne med hadde AI-applikasjoner bare noen få kjerneverktøy (lese og skrive filer, utføre kommandoer), og utvidet senere mange eksterne verktøy og tjenester gjennom MCP
3️⃣ Dokumentasjon (KB/RAG)
Problemrelatert dokumentasjon er også viktig, og IDE-er som Cursor vil automatisk lagre åpne filer, nylig åpnede filer, problemrelaterte filer og hentede nøkkelkoder i kontekst
Videre vil kontekstprosjektet automatisk administrere minnedataene, akkurat som minnerenseoperasjonen, erstatte de ubrukelige dataene, sette nyttige data foran, øke vekten osv
❓ Alt dette ser bra ut, hvorfor gjorde CC en underagent igjen?
Etter hvert som samtalen skrider frem, blir det mer og mer innhold i sammenhengen, og den er i ferd med å sprekke!
For å svare på spørsmålet kan LLM kalle verktøyet flere ganger (for eksempel lese en fil), og verktøyet returnerer resultatet + lastet filinnhold, og legger det stadig til konteksten.
...
Topp
Rangering
Favoritter

