Hasta ahora solo he visto publicaciones vagas sobre esto, incluso las charlas sobre AIE y los artículos de fábrica dicen básicamente nada útil. Así que estoy escribiendo una gran guía paso a paso para preparar Codebases LLM aplicando límites de complejidad mediante linters, tanto para python como para typescript Una cosa de la que nadie habla es que los LLM mostrarán muy felizmente comportamientos de "juego de reglas". En vez de arreglar los problemas reales del código, simplemente modificarán tus reglas de linting para hacer desaparecer las infracciones Necesitas algo así como 4 capas de protección para evitar esto. Y si trabajas en modo "bypass permissions", que es la única forma de lograr una ejecución autónoma de tareas realmente larga, nada impide que las LLM modifiquen hooks, reglas de linting o configuraciones pre-commit para salirse con la suya En teoría esto es fácil de arreglar, solo hay que añadir protección real a los puntos de linting en el propio arnés. Pero ahora mismo no hay ningún arnés que realmente soporte esto (que yo sepa) Tengo un artículo que ya cubre prácticamente todo lo demás que mencionó Karpathy si quieres aprender