OK, hier ist Runde 2 des Super Big Brained Optimizer Prompts. Dieser Beitrag kann glücklicherweise viel kürzer sein als der zitierte Beitrag, da der gesamte Workflow nach dem ursprünglichen Prompt identisch mit Runde 1 ist, nur dass "1" in den Dateinamen durch "2" ersetzt wird. Hier ist der Prompt: --- Zuerst lese ALLE AGENTS md-Dateien und README md-Dateien super sorgfältig und verstehe ALLES von beiden! Dann benutze deinen Code-Untersuchungs-Agentenmodus, um den Code, die technische Architektur und den Zweck des Projekts vollständig zu verstehen. Sobald du dann eine extrem gründliche und sorgfältige Arbeit bei all dem geleistet hast und das gesamte bestehende System und was es tut, seinen Zweck und wie es implementiert ist und wie alle Teile miteinander verbunden sind, tief verstanden hast, benötige ich, dass du hyper-intensiv diese Fragen untersuchst, studierst und darüber nachdenkst, wie sie sich auf dieses Projekt beziehen: Gibt es andere grobe Ineffizienzen im Kernsystem? Stellen im Code, wo 1) Änderungen tatsächlich einen Unterschied in Bezug auf die Gesamtlatenz/Reaktionsfähigkeit und den Durchsatz bewirken würden; 2) sodass unsere Änderungen nachweislich isomorph in Bezug auf die Funktionalität wären, sodass wir sicher wüssten, dass sich die resultierenden Ausgaben bei denselben Eingaben nicht ändern würden; 3) wo du eine klare Vision für einen offensichtlich besseren Ansatz in Bezug auf Algorithmen oder Datenstrukturen hast (beachte, dass du für dies auch weniger bekannte Datenstrukturen und esoterischere/sophisticated/mathematische Algorithmen sowie Möglichkeiten zur Umformulierung des Problems einbeziehen kannst, sodass ein anderes Paradigma sichtbar wird, wie die unten aufgeführte Liste (Hinweis: Bevor du eine Optimierung vorschlägst, stelle Basismetriken (p50/p95/p99 Latenz, Durchsatz, Spitzenverbrauch) fest und erfasse CPU/Zuweisung/I/O-Profile, um tatsächliche Hotspots zu identifizieren): - konvexe Optimierung (Umformulierung ergibt globale Optimumsgarantien) - submodulare Optimierung (gierig gibt konstante Faktor-Approximation) - Semiring-Generalisierung (vereint kürzester Pfad, transitive Hülle, Datenfluss, Parsing) - Matroid-Struktur-Erkennung (gierig ist nachweislich optimal) - lineare Algebra über GF(2) (XOR-Systeme, Umschaltprobleme, Fehlerkorrektur) - Reduktion auf 2-SAT (Konfigurationsgültigkeit, Implikationsgraphen) - Reduktion auf min-Kosten max-Fluss (Zuweisung, Planung, Ressourcenallokation) - bipartite Matching-Erkennung (Ungarisch, Hopcroft-Karp) - DP als kürzester Pfad in impliziten DAG (ermöglicht Prioritätswarteschlangen-DP, Dijkstra-Stil-Optimierung) - konvexer Hüllentrick / Li Chao-Bäume (O(n²) DP → O(n log n)) - Knuths Optimierung / Teile-und-herrsche DP - Hirschbergs Raumreduktion (wenn anwendbar über Alignment hinaus) - FFT/NTT für Faltung (polynomielle Multiplikation, Sequenzkorrelation) - Matrixexponentiation für lineare Rekurrenzen - Möbius-Transformation / Teilmengenfaltung - persistente/unveränderliche Datenstrukturen (Versionierung, Rückgängigmachung, spekulative Ausführung)...