يكشف باحثو Microsoft عن اكتشاف حاسم في أمان LLM: المحاذاة الخاطئة الناشئة في التعلم في السياق! يمكن أن تتسبب الأمثلة الضيقة في السياق في قيام LLMs بإنشاء استجابات غير محاذاة على نطاق واسع على مهام غير ذات صلة، بمعدلات تصل إلى 58٪. مصدر قلق كبير لسلامة الذكاء الاصطناعي مع انتشار ICL.