Cómo @cline experimentado la "amarga lección" en su propio camino. Cuando salió el Soneto 4, muchas cosas se rompieron. El modelo se ejecutaba en bucles. Tomaba las instrucciones demasiado literalmente e hacía cosas raras. Estábamos confundidos. El mismo aviso del sistema había funcionado en la versión 3.5, 3.7, todo lo anterior. En ese momento nos dimos cuenta: nuestro prompt estaba sobrecargando sensorialmente el modelo. ¿Todas esas instrucciones cuidadosas que habíamos escrito? Estaban interfiriendo en cómo piensa realmente el modelo. La amarga lección para los agentes: Crees que puedes ajustar los prompts y mejorar los modelos. Y quizá eso funcione... Por ahora. Pero con más cálculo, los modelos mejoran por sí solos. Y cuanto más te cojas de la mano, más estorbas realmente. El mejor prompt del sistema es aquel que apunta a los agentes en la dirección correcta pero luego se aparta del camino del modelo,