NUEVA investigación de Stanford. El debate sobre la AGI está atrapado en una falsa dicotomía. Posición uno: escalar LLMs y la inteligencia emerge. Posición dos: los LLMs son emparejadores de patrones incapaces de razonar, un callejón sin salida. Este artículo aboga por una tercera posición: Sustrato más Coordinación. Los LLMs son el repositorio de patrones del Sistema-1 necesario. El componente que falta es una capa de coordinación del Sistema-2 que selecciona, restringe y une estos patrones a objetivos externos. El autor postula que la clave proviene de una metáfora de pesca. El océano es el vasto conocimiento latente del modelo. Lanzar sin cebo recupera la máxima probabilidad previa: salidas genéricas y comunes. Los críticos que observan la alucinación no están viendo un sistema roto. Están viendo un lanzamiento sin cebo. El comportamiento inteligente requiere cebar y filtrar. El artículo formaliza esto a través de UCCT, una teoría donde el razonamiento emerge como una transición de fase. Tres factores gobiernan el cambio: soporte efectivo (densidad de cebo que atrae conceptos objetivo), desajuste representacional (cuánto resiste la previa) y un presupuesto de anclaje adaptativo (el costo del contexto). Cuando la fuerza de anclaje cruza un umbral, el comportamiento cambia de alucinación a control orientado a objetivos. Dos ejemplos en contexto pueden anular la aritmética aprendida de miles de millones de tokens. La transición es discreta, no gradual. La coordinación es un cuello de botella en los sistemas de IA modernos. MACI implementa esta capa de coordinación: debate modulado por el comportamiento entre agentes, juicio socrático que filtra argumentos mal planteados y memoria transaccional que mantiene el estado a través de episodios de razonamiento. Lee el artículo sobre ingeniería de contexto agente para ideas sobre la parte de memoria. El camino hacia la AGI pasa por los LLMs, no alrededor de ellos. La pregunta no es si los repositorios de patrones son suficientes. Es qué mecanismos de coordinación pueden transformar la capacidad de patrones en razonamiento fiable y verificable. Artículo: Aprende a construir agentes de IA efectivos en nuestra academia: