Los investigadores de Microsoft revelan un descubrimiento crítico en la seguridad de LLM: ¡Desalineación emergente en el aprendizaje en contexto! Los ejemplos estrechos en contexto pueden hacer que los LLM generen respuestas ampliamente desalineadas en tareas no relacionadas, con tasas de hasta el 58%. Una preocupación importante para la seguridad de la IA a medida que ICL se generaliza.