🚨 BREAKING: Forscher haben einen einzelnen schlechten Akteur in eine Gruppe von LLM-Agenten eingeschleust. Das gesamte Netzwerk konnte keinen Konsens erreichen. Das ist das Problem der byzantinischen Generäle. Ein 40 Jahre alpes Albtraum in verteilten Systemen. Und jetzt ist es auch das Problem deiner Agenten-Pipeline. In vollständig harmlosen Umgebungen, ohne schlechte Akteure, scheitern LLM-Agenten immer noch daran, sich auf gemeinsame Werte zu einigen. Und es wird schlimmer, je mehr Agenten zur Gruppe hinzugefügt werden. Der Fehlermodus ist aufschlussreich. Es ist keine subtile Wertkorruption. Es ist nicht ein Agent, der eine falsche Antwort einschleust. Die Modelle... stagnieren einfach. Sie laufen in Zeitüberschreitungen. Sie drehen sich im Kreis. Das Gespräch kommt nie zu einer Einigung. Das ist wichtig, weil der gesamte Hype um multi-agent AI davon ausgeht, dass Koordination funktioniert. Autonome Agentenschwärme, kollaborative Problemlösungen, dezentrale KI-Systeme. All das geht davon aus, dass, wenn man mehrere LLMs in einen Raum bringt und ihnen ein Protokoll gibt, sie sich auf eine gemeinsame Entscheidung einigen. Byzantinischer Konsens ist eines der ältesten, am meisten untersuchten Probleme in verteilten Systemen. Klassische Algorithmen haben es vor Jahrzehnten mit strengen mathematischen Garantien gelöst. Die Frage war, ob LLM-Agenten dasselbe durch natürliche Sprachkommunikation anstelle von formalen Protokollen erreichen könnten. Die Antwort, zumindest vorerst, ist nein. Und der Grund ist es wert, darüber nachzudenken. Traditionelle Konsensalgorithmen funktionieren, weil jeder Knoten einem identischen deterministischen Protokoll folgt. LLMs sind stochastisch. Der gleiche Prompt erzeugt unterschiedliche Ausgaben über verschiedene Durchläufe. Eine Einigung, die in Runde 3 hält, kann in Runde 4 aufgelöst werden, wenn Agenten ihr Denken über die Antworten der Kollegen überarbeiten. Das ist das grundlegende Missverhältnis: Konsensprotokolle gehen von deterministischen Zustandsmaschinen aus. LLMs sind das Gegenteil davon. Das bedeutet auch, dass "mehr Agenten = bessere Antworten" eine Obergrenze hat, die niemand misst. Bei einer bestimmten Gruppengröße überwiegen die Koordinationskosten und die Konvergenzfehler jeden Vorteil aus unterschiedlichen Perspektiven. Die praktische Implikation ist unangenehm für alle, die multi-agent Systeme für risikobehaftete Aufgaben entwickeln. Zuverlässige Einigung ist keine emergente Eigenschaft, die sich aus der Konversation intelligenter Agenten ergibt. Sie muss explizit konstruiert werden, mit formalen Garantien, nicht in die Existenz gehofft werden. Wir setzen multi-agent Systeme in Finanzen, Gesundheitswesen und autonome Infrastruktur ein. Und das Konsensproblem, das grundlegendste Koordinationsprimitive, ist noch nicht gelöst.