Der größte Engpass bei der Codierung von Agenten ist nicht das Modell; es ist der Kontext. Prompt Engineering ist tot. Kontext Engineering ist König. Du kannst jedes mittelmäßige Modell für dich arbeiten lassen, solange du ihm ausreichend hochwertigen Kontext gibst.
Hier ist, wie Sie den Kontext mit Claude Code, Cursor, Copilot, Gemini CLI oder einem anderen agentischen Coding verbessern können: Sie installieren die Context Engine von @augmentcode. Dies ist ein MCP-Server, der ein Wissensgraph und semantische Indizierung (nicht nur Schlüsselwortabgleich) verwendet, um die Struktur Ihres Codes zu verstehen und relevanten Code zu identifizieren. Wenn Sie codieren, wird Ihnen dieses MCP Folgendes geben: 1. Besseren Kontext 2. Schnellere Antworten 3. Geringeren Tokenverbrauch (günstiger!) Je größer Ihr Codebestand, desto besser (je mehr Vorteile Sie daraus ziehen werden). Hier ist, wie Sie es installieren können: 1. Fügen Sie den MCP-Server auf Claude Code hinzu (Link unten) 2. Aktualisieren Sie die CLAUDE .md, um immer diesen MCP-Server zu verwenden, um Fragen zum Repository zu indizieren und zu beantworten. Ich benutze dies in einem meiner Repositories. Es handelt sich um ein ziemlich komplexes Set von Machine-Learning-Pipelines mit etwa 30.000 Zeilen Code. Nach der Indizierung des Repos mit der Context Engine kann ich Fragen doppelt so schnell beantworten wie zuvor. Dasselbe Opus 4.5 Modell, derselbe Claude Code, dieselben Tools, aber unterschiedliche Kontexte = 2x Geschwindigkeit. Hier ist der Link zur Context Engine: Und hier sind die Anweisungen, wie Sie es auf Claude Code, Codex oder einer anderen agentischen Plattform installieren können, die Sie verwenden: Danke an das Team von @augmentcode für die Zusammenarbeit an diesem Beitrag.
88