Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NUEVA investigación de Stanford.
El debate sobre la AGI está atascado en una falsa dicotomía.
Posición uno: scales LLMs y surge inteligencia.
Segunda posición: Los LLM son modelos incapaces de razonar, un callejón sin salida.
Este artículo defiende una tercera posición: Sustrato más Coordinación.
Los LLMs son el repositorio de patrones System-1 necesario. El componente que falta es una capa de coordinación del Sistema 2 que selecciona, restringe y une estos patrones a objetivos externos.
El autor sostiene que la idea clave proviene de una metáfora de pesca. El océano es el vasto conocimiento latente del modelo. Lanzar sin cebo recupera la máxima probabilidad a priori: salidas genéricas y comunes. Los críticos que observan alucinaciones no ven un sistema roto. Están viendo un elenco sin cebo.
El comportamiento inteligente requiere cebo y filtrado. El artículo formaliza esto mediante UCCT, una teoría en la que el razonamiento surge como una transición de fase. Tres factores gobiernan el cambio: apoyo efectivo (densidad de cebo que atrae conceptos objetivo), desajuste representacional (cuánto resiste el anterior) y un presupuesto de anclaje adaptativo (el coste del contexto).
Cuando la fuerza de anclaje cruza un umbral, el comportamiento pasa de una alucinación a un control dirigido a un objetivo. Dos ejemplos contextuales pueden anular la aritmética aprendida de miles de millones de tokens. La transición es discreta, no gradual.
La coordinación es un cuello de botella en los sistemas modernos de IA.
MACI implementa esta capa de coordinación: debate modulado por comportamiento entre agentes, juicio socrático que filtra argumentos mal planteados y memoria transaccional que mantiene el estado a lo largo de los episodios de razonamiento.
Lee el artículo de ingeniería de contexto agente para ideas sobre la parte de la memoria.
El camino hacia la AGI pasa por los LLMs, no alrededor de ellos. La cuestión no es si los repositorios de patrones son suficientes. Es que los mecanismos de coordinación pueden transformar la capacidad de patrones en razonamientos fiables y verificables.
Papel:
Aprende a crear agentes de IA efectivos en nuestra academia:

Populares
Ranking
Favoritas
