Einer der ersten Agenten, die ich gebaut habe, war extrem einfach: Er holte Informationen aus einem Vektor-Speicher, formatierte sie als HTML und sendete sie per E-Mail an den Benutzer. Einfacher geht es nicht, und doch hat dieser Agent etwa 1 % der Zeit versagt. Kein Fehler. Keine Warnung. Er gab einfach Müll zurück. Hier ist die harte Wahrheit: Agenten scheitern oft. Und sie scheitern still. Immer. Man kann einem LLM einfach nicht vertrauen, dass es jedes Mal das Richtige tut. Bis jetzt habe ich ein paar Dutzend Agenten gebaut und eingesetzt, und hier sind einige der Dinge, die tatsächlich funktionieren: 1. Beobachtbarkeit von Tag eins. Wenn du nicht sehen kannst, was dein Agent tut, kannst du ihn nicht debuggen, verbessern oder ihm vertrauen. Jeder Agent sollte Spuren erzeugen, die den gesamten Anfragefluss, Modellinteraktionen, Token-Nutzung und Zeitmetadaten zeigen. 2. Sicherheitsvorkehrungen für Eingaben und Ausgaben. Alles, was in ein LLM eingeht und herauskommt, sollte von deterministischem Code überprüft werden. Selbst Dinge, die wahrscheinlich nicht kaputtgehen, werden letztendlich kaputtgehen. 3. LLM-als-Richter-Bewertung. Du kannst einen einfachen Richter mit einem LLM bauen, um die Ausgaben deines Agenten automatisch zu bewerten. Kennzeichne einen Datensatz, schreibe den Bewertungsaufforderung und iteriere, bis dein Richter die meisten Fehler erkennt. 4. Fehleranalyse. Du kannst Fehlermuster sammeln, kategorisieren und die häufigsten Fehler diagnostizieren. 5. Kontextengineering. Oft scheitern Agenten, weil ihr Kontext laut, überladen oder irrelevant ist. Zu lernen, wie man den Kontext relevant hält, ist enorm wichtig. 6. Menschliche Feedback-Schleifen. Manchmal ist die beste Sicherheitsvorkehrung ein Mensch im Prozess, insbesondere bei Entscheidungen mit hohen Einsätzen.