Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vibe Coding Gedanken...
Als ich Claude Code und Gemini (über Sandbox) mehr nutzte, bemerkte ich ein Muster: Das Modell und der Benutzer nähern sich einer gemeinsamen Schnittstellensprache. Diese Schnittstelle ist eine komprimierte, unnatürliche Form des Englischen, die zwischen normalem Englisch und Code liegt.
Code-fokussierte Modelle bevorzugen strukturierte Anweisungen: explizite Einschränkungen, Schrittfolge, Eingaben/Ausgaben, Randfälle, Akzeptanzkriterien.
Menschen bevorzugen natürliches Englisch: Kontext, Absicht und implizierte Bedeutung.
Reibung entsteht, weil keine Seite vollständig fließend in dem nativen Format der anderen ist, sodass Bedeutung verloren geht.
Mein Prompting war daher suboptimal, ähnlich wie ein starker Akzent suboptimal ist: Die Absicht ist korrekt, aber die Übertragung ist inkonsistent, sodass das Modell Details missinterpretiert und die Iterationsanzahl steigt.
Die Lösung bestand darin, eine Übersetzungsschicht hinzuzufügen.
Ich benutze ein nicht-codebasiertes LLM (ChatGPT), um meine Absicht in einfachem Englisch zu nehmen und sie in ein präzises Prompt im Format zu konvertieren, das codefokussierte Modelle am besten verarbeiten können.
Das reduzierte Missverständnisse und komprimierte den 0→1 Build-Zyklus erheblich.
Harsh Empfehlung: Verwenden Sie ein Übersetzungsmodell, um die Absicht in ein strukturiertes Prompt umzuwandeln, bevor Sie es an Code-Modelle senden.
Top
Ranking
Favoriten
