Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Pensamientos de codificación de vibra...
A medida que usaba más Claude Code y Gemini (a través de Sandbox), noté un patrón: el modelo y el usuario convergen hacia un lenguaje de interfaz compartido. Esa interfaz es una forma comprimida y antinatural de inglés que se sitúa entre el inglés normal y el código.
Los modelos centrados en el código prefieren instrucciones estructuradas: restricciones explícitas, orden de pasos, entradas/salidas, casos límite, criterios de aceptación.
Los humanos prefieren el inglés natural: contexto, intención y significado implícito.
La fricción ocurre porque ninguna de las partes domina completamente el formato nativo del otro, así que el significado se pierde.
Por tanto, mi indicación fue subóptima de la misma manera que un acento fuerte es subóptimo: la intención es correcta, pero la transmisión es inconsistente, por lo que el modelo interpreta mal los detalles y el recuento de iteraciones aumenta.
La solución fue añadir una capa de traducción.
Utilizo un LLM que no es código (ChatGPT) para convertir mi intención en inglés sencillo en un prompt preciso en el formato que mejor manejan los modelos centrados en código.
Eso redujo malentendidos y comprimió materialmente el ciclo de construcción 0→1.
Recomendación dura: usa un modelo traductor para convertir la intención en un prompt estructurado antes de enviarla a modelos de código.
Populares
Ranking
Favoritas
