Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ara
Liebhaber des Lebens und der Schönheit @cline
Vorherige @shopify @sourcegraph
Hey @swyx, eine Frage an dich,
Du sagst immer "Mach Dinge, sag den Leuten." Aber ich finde, dass das Machen mit dem Sagen interferiert.
Ich verliere mich im Machen. Ich muss mir gezwungenermaßen Zeit in meinem Kalender blockieren, nur um mich dazu zu zwingen, den Leuten durch Schreiben zu erzählen. Und selbst dann fühlt es sich an, als würde ich Zeit verschwenden, die ich für mehr Machen nutzen könnte.
Ich habe einige Vorteile darin gesehen, den Leuten zu erzählen. Aber ich genieße das Machen viel mehr. Ich möchte kein technischer Schriftsteller sein. Ich möchte nicht im Dev Rel arbeiten und bin größtenteils allergisch gegen das Wort "Marketing."
Ich möchte nur Ideen so kommunizieren, dass sie tatsächlich angenommen werden (und die Leute das nutzen, was ich baue). Das Leben ist kurz und selbst wenn ich die ganze Zeit arbeite, gibt es nur so viel Zeit.
Wie managst du das Gleichgewicht? Welche Heuristiken verwendest du? Ich denke, viele Builder kämpfen damit und einige neigen zu sehr zu einer Seite.
Ich würde gerne deine Meinung dazu hören.
53
Wie @cline die "bittere Lektion" auf seiner eigenen Reise erfahren hat.
Als Sonnet 4 veröffentlicht wurde, brach vieles zusammen. Das Modell lief in Schleifen. Es nahm Anweisungen zu wörtlich und machte seltsame Dinge.
Wir waren verwirrt. Der gleiche System-Prompt hatte bei 3.5, 3.7 und allem davor funktioniert.
An diesem Punkt erkannten wir: Unser Prompt überlastete das Modell sensorisch. All diese sorgfältigen Anweisungen, die wir geschrieben hatten? Sie störten, wie das Modell tatsächlich denkt.
Die bittere Lektion für Agenten:
Du denkst, du kannst Prompts anpassen und Modelle verbessern. Und vielleicht funktioniert das... vorerst. Aber mit mehr Rechenleistung werden die Modelle einfach von selbst besser. Und je mehr du sie an die Hand nimmst, desto mehr stehst du tatsächlich im Weg.
Der beste System-Prompt ist der, der die Agenten in die richtige Richtung weist, aber dann aus dem Weg des Modells geht.
34
So reverse-engineerst du die Eingabeaufforderungen von geschlossenen KI-Coding-Tools:
Das funktioniert für Claude Code, Windsurf, Copilot und buchstäblich alles, indem du ihre Aufrufe abfängst.
Methode 1: Charles Proxy (für Tools mit internen Endpunkten)
Tools wie die Vscode-Erweiterung leiten zuerst zu ihrem eigenen Backend weiter.
- Installiere Charles Proxy
- Installiere das Charles-Root-Zertifikat
- Überwache den Datenverkehr
- Finde den internen Endpunkt, den sie ansteuern
- Markiere ihn für SSL-Proxying in Charles
- Lies alles nach
Methode 2: Lokaler Proxy (für Tools, die LLM-APIs direkt aufrufen)
- Tools wie Cline, Claude Code rufen direkt auf. Charles funktioniert nicht, da die Zertifikatspinning es blockiert.
- Starte einen lokalen Proxy auf localhost:8080
- Konfiguriere die Erweiterung, um dies als ihre API-Basis-URL zu verwenden
- Dein Proxy leitet an die echte API weiter
- Lies alles im Klartext
- Du fängst nicht ab, da du DER Endpunkt bist, also keine Zertifikatsprobleme.
Damit siehst du vollständige Systemaufforderungen, Tool-Definitionen, Gesprächsstruktur, Parameter, alles.

34
Top
Ranking
Favoriten
