Det som er spennende *for meg* med @AnthropicAI "agentferdigheter"-kunngjøringen er at den gir et skritt mot kontinuerlig læring. - I stedet for å kontinuerlig oppdatere modellvekter, kan agenter som samhandler med verden kontinuerlig legge til nye ferdigheter. - Databehandling brukt på resonnement kan tjene et dobbelt formål med å generere nye ferdigheter (akkurat nå blir arbeidet som går med resonnement i stor grad forkastet etter at en oppgave er utført). Jeg ser for meg at enorme mengder kunnskap og ferdigheter vil bli lagret utenfor en modells vekter. Det virker naturlig å destillere noe av den kunnskapen til modellvekter over tid, men den delen virker mindre grunnleggende for meg. Det er mange fine ting med å lagre kunnskap utenfor modellen - Det er tolkbart (bare les gjennom ferdighetene) - Du kan rette feil (ferdighetene/kunnskapene er i klartekst, så de er enkle å oppdatere) - Bør være svært dataeffektiv (på samme måte som kontekstlæring er dataeffektiv)