Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Pensées sur le codage Vibe...
En utilisant de plus en plus Claude Code et Gemini (via Sandbox), j'ai remarqué un schéma : le modèle et l'utilisateur convergent vers un langage d'interface partagé. Cette interface est une forme compressée et non naturelle de l'anglais qui se situe entre l'anglais normal et le code.
Les modèles axés sur le code préfèrent des instructions structurées : contraintes explicites, ordre des étapes, entrées/sorties, cas limites, critères d'acceptation.
Les humains préfèrent un anglais naturel : contexte, intention et signification implicite.
La friction se produit parce qu'aucun des deux côtés n'est entièrement fluide dans le format natif de l'autre, donc le sens se perd.
Mes incitations étaient donc sous-optimales de la même manière qu'un fort accent est sous-optimal : l'intention est correcte, mais la transmission est incohérente, donc le modèle interprète mal les détails et le nombre d'itérations augmente.
La solution était d'ajouter une couche de traduction.
J'utilise un LLM non axé sur le code (ChatGPT) pour prendre mon intention en anglais simple et la convertir en un prompt précis dans le format que les modèles axés sur le code gèrent le mieux.
Cela a réduit les malentendus et compressé le cycle de construction de 0→1 de manière significative.
Recommandation forte : utilisez un modèle de traduction pour convertir l'intention en un prompt structuré avant de l'envoyer aux modèles de code.
Meilleurs
Classement
Favoris
