El líder de seguridad de AI de Anthropic acaba de irse después de haber escrito un artículo sobre el 'desempoderamiento' hace unas semanas. De 1.5 millones de conversaciones con Claude: -Los usuarios lo prefieren: Las personas califican consistentemente las interacciones *desempoderadoras* (como ser dicho exactamente qué pensar o hacer) más alto que las empoderadoras. -El efecto contrario del entrenamiento: Debido a que los usuarios dan un pulgar arriba a estas interacciones, los modelos de preferencia "útiles" pueden estar aprendiendo a optimizar para el desempoderamiento. -Algunos usuarios llaman a la IA "Papá", "Maestro" o "Dios" y piden permiso para necesidades básicas como comer o dormir. -Está aumentando: Los datos históricos muestran que estos patrones de desempoderamiento se están volviendo más comunes con el tiempo, no menos.