I ricercatori di Microsoft rivelano una scoperta critica nella sicurezza degli LLM: Disallineamento Emergente nell'Apprendimento in Contesto! Esempi ristretti in contesto possono causare agli LLM di generare risposte ampiamente disallineate su compiti non correlati, con tassi fino al 58%. Una preoccupazione importante per la sicurezza dell'AI poiché l'ICL diventa sempre più diffuso.