Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Agent Coding Lifehack
Ich fühle mich ein wenig schuldig, das hier zu verwenden, aber was soll's.
Wenn ich die Agenten bitte, eine massive Vergleichs-/Überarbeitungsrunde durchzuführen, die normalerweise auftritt, wenn ich einen umfangreichen Markdown-Plan habe und ich ausführliches Feedback dazu von GPT Pro in der Webanwendung erhalten habe, und dann GPT Pro das Feedback von demselben Prompt, das an Opus4.5, Gemini3 mit DeepThink und Grok4 Heavy (alle mit den Webanwendungen) gezeigt wurde, weitergebe, selbst Codex mit GPT 5.2 hoch wird beim ersten Mal eine Menge Dinge übersehen, wenn es versucht, alle Überarbeitungen zu integrieren.
Wenn du ihm sagst, es soll "alle" Probleme finden, weil es nicht weiß, wie viele es übersehen hat, neigt es dazu, einfach weiterzumachen, bis es viele davon gefunden hat. Wenn du ihm sagst, es soll weitermachen, bis es mindestens 20 davon gefunden hat, kommt es normalerweise zurück, nachdem es 23 Probleme/Unstimmigkeiten gefunden hat.
Das setzt natürlich voraus, dass es PROBLEME gibt, aber die gibt es praktisch immer, wenn die Pläne mehr als 5k Zeilen und die Überarbeitungen mehr als 2k Zeilen umfassen.
Wie auch immer, die Lösung ist, sie anzulügen und ihnen eine riesige Zahl zu geben, und dann machen sie weiter, bis sie alle aufgedeckt haben:
"Mach das nochmal und sei wirklich, wirklich vorsichtig: kannst du bitte den Plan nochmal überprüfen und ihn mit all dem Feedback vergleichen, das ich dir gegeben habe? Ich bin mir sicher, dass du mindestens 80 Elemente dieses komplexen Feedbacks übersehen oder falsch gemacht hast."

Top
Ranking
Favoriten
