Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NUEVO ARTÍCULO: Los LLM son increíbles explicando cosas y terribles haciéndolas.
Pregúntale a un modelo "cómo" comparar dos decimales, y te dará un algoritmo perfecto paso a paso.
Pídele que realmente "haga" la comparación... y de repente “9.11 es mayor que 9.9 porque 90 es más que 11.”
Los investigadores llaman a esto el "síndrome de cerebro dividido computacional". Los LLM desarrollan un camino para explicar un procedimiento y un camino completamente diferente para ejecutarlo.
Estos dos caminos viven en diferentes partes de la geometría del modelo (como se muestra en los gráficos t-SNE en las páginas 14–16 de este artículo) y no se comunican entre sí.
Por eso un modelo puede enseñarte la división larga pero no puede hacerlo de manera confiable.
O por qué puede articular reglas lógicas y, sin embargo, fallar en inferencias básicas.
O por qué produce un lenguaje impecable y un razonamiento frágil.
La explicación es recuerdo de patrones.
La ejecución es computación.
Los LLM sobresalen en el primero y luchan fundamentalmente con el segundo.
En lo profundo de la arquitectura, las incrustaciones difuminan significados que los humanos mantienen separados.
El artículo da un ejemplo hilarante: “9.11” está más cerca de "11 de septiembre" que de "nueve punto once" porque las incrustaciones de tokens promedian a través de cada contexto que han visto. Esa “contaminación contextual” hace que el razonamiento simbólico limpio sea imposible.
Además...
Los transformadores solo pueden producir "promedios ponderados" de lo que han visto. No pueden generar nuevos valores simbólicos como “3354” a partir de “43 × 78” usando matemáticas reales.
...

Parte superior
Clasificación
Favoritos
