Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NEUE Forschung von Stanford.
Die AGI-Debatte steckt in einer falschen Dichotomie fest.
Position eins: Skaliere LLMs und Intelligenz entsteht.
Position zwei: LLMs sind Mustererkenner, die nicht in der Lage sind zu schlussfolgern, eine Sackgasse.
Dieses Papier plädiert für eine dritte Position: Substrat plus Koordination.
LLMs sind das notwendige System-1-Musterarchiv. Die fehlende Komponente ist eine System-2-Koordinationsschicht, die diese Muster auswählt, einschränkt und an externe Ziele bindet.
Der Autor postuliert, dass die zentrale Einsicht aus einer Angelmetapher stammt. Der Ozean ist das weite latente Wissen des Modells. Das Auswerfen ohne Köder bringt die wahrscheinlichste Vorannahme zurück: generische, allgemeine Ausgaben. Kritiker, die Halluzinationen beobachten, sehen kein defektes System. Sie sehen einen unköderten Wurf.
Intelligentes Verhalten erfordert Köderung und Filterung. Das Papier formalisiert dies über UCCT, eine Theorie, in der Schlussfolgern als Phasenübergang entsteht. Drei Faktoren bestimmen den Übergang: effektive Unterstützung (Köderdichte, die Zielkonzepte anzieht), repräsentationaler Missmatch (wie sehr die Vorannahme widersteht) und ein adaptives Ankerbudget (die Kosten des Kontexts).
Wenn die Ankerstärke einen Schwellenwert überschreitet, wechselt das Verhalten von Halluzination zu zielgerichteter Kontrolle. Zwei kontextuelle Beispiele können die Arithmetik, die aus Milliarden von Tokens gelernt wurde, außer Kraft setzen. Der Übergang ist diskret, nicht allmählich.
Koordination ist ein Engpass in modernen KI-Systemen.
MACI implementiert diese Koordinationsschicht: verhaltensmodulierte Debatten zwischen Agenten, sokratisches Urteilen, das schlecht formulierte Argumente filtert, und transaktionales Gedächtnis, das den Zustand über Denkepisoden hinweg aufrechterhält.
Lies das Papier zur agentischen Kontextgestaltung für Ideen zum Gedächtnisteil.
Der Weg zur AGI führt durch LLMs, nicht um sie herum. Die Frage ist nicht, ob Musterarchive ausreichend sind. Es ist, welche Koordinationsmechanismen die Musterkapazität in zuverlässiges, überprüfbares Schlussfolgern umwandeln können.
Papier:
Lerne, effektive KI-Agenten in unserer Akademie zu bauen:

Top
Ranking
Favoriten
