Føler at søkealgoritmen vil bli flott igjen. Etter hvert som konteksten eller prompten blir større. Hvordan man riktig reduserer token-forbruket faller egentlig inn under hvilken prompt med hvilken kontekst vi bør sende inn. Jeg tror ikke komprimering fungerer så bra når du har en stor minnebank. Siden 90 % av prompten kanskje fortsatt ikke er nødvendig. I stedet for å sende inn all kontekst/prompt, søker og utleder vi hele konteksten kun for relevant informasjon.