微軟研究人員揭示了LLM安全性的一項關鍵發現:上下文學習中的新興不一致性! 狹窄的上下文示例可能導致LLM在無關任務上生成廣泛不一致的回應,比例高達58%。這對於AI安全來說是一個主要的擔憂,因為ICL變得越來越普遍。