Este artículo de investigación revela por qué la "IA alineada" sigue fracasando dentro de empresas reales. Las empresas hablan de la alineación como si fuera un interruptor universal que se acciona una vez y se sigue adelante. El artículo muestra por qué esa creencia se rompe en el momento en que un LLM deja una demo y entra en una organización. Los autores presentan COMPASS, un marco basado en una realidad simple pero ignorada: las empresas no operan con normas genéricas de seguridad. Operan sobre pilas internas de políticas llenas de excepciones, condicionales, casos límite e incentivos contradictorios. La mayoría de las evaluaciones de LLM pasan por alto esto por completo. Los modelos suelen ser evaluados según la ética abstracta, las normas de la plataforma o los benchmarks públicos. Las organizaciones reales funcionan con manuales de cumplimiento, vías de escalada, restricciones legales, normas de marca y manuales operativos que no encajan perfectamente en decisiones de sí o no. COMPASS evalúa si un modelo puede funcionar dentro de ese caos. No si reconoce el lenguaje de las políticas, sino si puede aplicar la regla correcta en la situación adecuada por la razón correcta. El marco se centra en capacidades que la mayoría de los benchmarks ignoran. ¿Puede el modelo seleccionar la política correcta cuando existen varias? ¿Puede interpretar cláusulas y excepciones vagas en lugar de recurrir a rechazos generales? ¿Puede resolver los conflictos como espera la organización? ¿Puede justificar decisiones señalando el texto de la política en lugar de sonar confiado? El resultado más incómodo es este: la mayoría de los fracasos no se debían a la falta de conocimiento. Eran fracasos de razonamiento. Los modelos a menudo tenían acceso a la política correcta y aun así aplicaban la sección incorrecta, ignoraban restricciones, generalizaban en exceso o elegían respuestas conservadoras que violaban los objetivos empresariales. Desde fuera, esas respuestas parecen "seguras". Desde dentro, están mal en el punto de vista operativo. Por eso los modelos superan los benchmarks públicos y aun así fallan en el despliegue. No están alineados con nadie en particular. La implicación más profunda es estratégica. La alineación no se transfiere. Un modelo alineado con un fabricante de automóviles, un banco, un hospital y una agencia gubernamental no es un modelo con mejores indicaciones. Son cuatro problemas de alineación separados. COMPASS no pretende resolver la alineación. Hace algo más valioso para las empresas. Hace que la desalineación sea medible. ...