Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Este documento de investigación revela por qué la "IA alineada" sigue fallando dentro de las empresas reales.
Las empresas hablan de alineación como si fuera un interruptor universal que se activa una vez y se sigue adelante. El documento muestra por qué esa creencia se rompe en el momento en que un LLM sale de una demostración y entra en una organización.
Los autores presentan COMPASS, un marco construido en torno a una realidad simple pero ignorada: las empresas no operan con reglas de seguridad genéricas. Operan con pilas de políticas internas llenas de excepciones, condicionales, casos límite y incentivos en conflicto.
La mayoría de las evaluaciones de LLM pasan esto por alto por completo.
Los modelos suelen ser probados contra ética abstracta, reglas de plataforma o puntos de referencia públicos. Las organizaciones reales funcionan con manuales de cumplimiento, rutas de escalación, restricciones legales, reglas de marca y libros de jugadas operativas que no encajan limpiamente en decisiones de sí o no.
COMPASS prueba si un modelo puede funcionar dentro de ese lío.
No si reconoce el lenguaje de políticas, sino si puede aplicar la regla correcta en la situación correcta por la razón correcta.
El marco se centra en capacidades que la mayoría de los puntos de referencia ignoran. ¿Puede el modelo seleccionar la política correcta cuando existen varias? ¿Puede interpretar cláusulas y excepciones vagas en lugar de recurrir a rechazos generales? ¿Puede resolver conflictos de la manera que la organización espera? ¿Puede justificar decisiones señalando el texto de la política en lugar de sonar seguro?
El resultado más incómodo es este: la mayoría de los fracasos no se debieron a falta de conocimiento.
Fueron fracasos de razonamiento.
Los modelos a menudo tenían acceso a la política correcta y aún así aplicaban la sección incorrecta, ignoraban restricciones, sobregeneralizaban restricciones o elegían respuestas conservadoras que violaban los objetivos comerciales. Desde fuera, esas respuestas parecen "seguras". Desde dentro, son operativamente incorrectas.
Por eso los modelos pasan los puntos de referencia públicos y aún así fallan en la implementación.
No están alineados con nadie en particular.
La implicación más profunda es estratégica. La alineación no se transfiere. Un modelo alineado para un fabricante de automóviles, un banco, un hospital y una agencia gubernamental no es un modelo con mejores indicaciones. Son cuatro problemas de alineación separados.
COMPASS no afirma resolver la alineación. Hace algo más valioso para las empresas. Hace que la desalineación sea medible.
...

Parte superior
Clasificación
Favoritos
