Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NOUVELLES recherches de Stanford.
Le débat sur l'AGI est bloqué sur une fausse dichotomie.
Position un : échelle des LLM et l'intelligence émerge.
Position deux : les LLM sont des appariements de motifs incapables de raisonnement, une impasse.
Cet article plaide pour une troisième position : Substrat plus Coordination.
Les LLM sont le répertoire de motifs nécessaire du Système-1. Le composant manquant est une couche de coordination Système-2 qui sélectionne, contraint et lie ces motifs à des objectifs externes.
L'auteur postule que l'idée clé provient d'une métaphore de la pêche. L'océan est la vaste connaissance latente du modèle. Jeter sans appât récupère le maximum de probabilité antérieure : des sorties génériques et communes. Les critiques observant l'hallucination ne voient pas un système défaillant. Ils voient un lancer sans appât.
Un comportement intelligent nécessite d'appâter et de filtrer. L'article formalise cela via l'UCCT, une théorie où le raisonnement émerge comme une transition de phase. Trois facteurs gouvernent le changement : le soutien efficace (la densité d'appât attirant les concepts cibles), le décalage représentatif (à quel point l'antérieur résiste) et un budget d'ancrage adaptatif (le coût du contexte).
Lorsque la force d'ancrage franchit un seuil, le comportement passe de l'hallucination à un contrôle dirigé par un objectif. Deux exemples en contexte peuvent remplacer l'arithmétique apprise à partir de milliards de tokens. La transition est discrète, pas graduelle.
La coordination est un goulot d'étranglement dans les systèmes d'IA modernes.
MACI met en œuvre cette couche de coordination : un débat modulé par le comportement entre agents, un jugement socratique qui filtre les arguments mal posés, et une mémoire transactionnelle qui maintient l'état à travers les épisodes de raisonnement.
Lisez l'article sur l'ingénierie du contexte agentique pour des idées sur la partie mémoire.
Le chemin vers l'AGI passe par les LLM, pas autour d'eux. La question n'est pas de savoir si les répertoires de motifs sont suffisants. C'est quels mécanismes de coordination peuvent transformer la capacité de motif en raisonnement fiable et vérifiable.
Article :
Apprenez à construire des agents IA efficaces dans notre académie :

Meilleurs
Classement
Favoris
