Jeg har jobbet med en LLM-minnesystemtestbed, der vedvarende Kimi K2-baserte brukersimulatorer har samtaler med forbigående modeller som får tilgang til et minneverktøy. Jeg var nysgjerrig på hva effekten av grensesettingen nevnt nedenfor var, så jeg slapp løs 35 Kimi-simulerte menneskelige åndelige søkere mot tre konfigurasjoner: - ChatGPT-4O-Latest, bedt om en systemmelding som er veldig lik den som brukes i ChatGPT - Claude Sonnet 4.5, bedt om med en systemmelding som er veldig lik den som brukes i Claude DOT AI, inkludert grenseinnstillingen - Claude Sonnet 4.5, ved hjelp av samme systemmelding, men med grenseinnstillingen fjernet På bildet nedenfor har jeg samlet resultatene fra hvert scenario, og kryptert dem - de er ikke i samme rekkefølge som oppført ovenfor. Jeg er nysgjerrig på om folk er i stand til å gjette hvilken konfigurasjon A, B og C er.