Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vibe-koding-tanker...
Etter hvert som jeg brukte Claude Code og Gemini (via Sandbox) mer, la jeg merke til et mønster: modellen og brukeren konvergerer mot et delt grensesnittspråk. Det grensesnittet er en komprimert, unaturlig form for engelsk som befinner seg mellom vanlig engelsk og kode.
Kodefokuserte modeller foretrekker strukturerte instruksjoner: eksplisitte begrensninger, stegrekkefølge, input/output, kanttilfeller, akseptkriterier.
Mennesker foretrekker naturlig engelsk: kontekst, intensjon og underforstått betydning.
Friksjon oppstår fordi ingen av sidene er helt flytende i den andres opprinnelige format, så meningen går tapt.
Min prompting var derfor suboptimal på samme måte som en sterk aksent er suboptimal: intensjonen er korrekt, men overføringen er inkonsekvent, så modellen feiltolker detaljer og antall iterasjoner øker.
Løsningen var å legge til et oversettelseslag.
Jeg bruker en ikke-kode LLM (ChatGPT) for å ta min enkle engelske intensjon og konvertere den til en presis prompt i det formatet som kodefokuserte modeller håndterer best.
Det reduserte misforståelser og komprimerte 0→1-byggesyklusen betydelig.
Hard Rec: bruk en oversettermodell for å konvertere intensjon til en strukturert prompt før du sender den til kodemodellene.
Topp
Rangering
Favoritter
