Microsoft-forskere avslører en kritisk oppdagelse innen LLM-sikkerhet: Emergent Misalignment in In-Context Learning! Smale eksempler i kontekst kan føre til at LLM-er genererer stort sett feiljusterte svar på ikke-relaterte oppgaver, med frekvenser på opptil 58 %. En stor bekymring for AI-sikkerhet ettersom ICL blir utbredt.