Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NUEVO ARTÍCULO: Los LLM son increíbles explicando cosas y terribles haciéndolas.
Pregunta a un modelo "cómo" comparar dos decimales, y te dará un algoritmo perfecto paso a paso.
Pídele que realmente "haga" la comparación... y de repente "9,11 es mayor que 9,9 porque 90 es más que 11."
Los investigadores llaman a esto el "síndrome computacional del cerebro dividido". Los LLMs desarrollan una vía para explicar un procedimiento y una vía completamente diferente para ejecutarlo.
Estas dos vías viven en partes diferentes de la geometría del modelo (como se muestra en los gráficos de t-SNE en las páginas 14–16 de este artículo) y no se comunican entre sí.
Por eso un modelo puede enseñarte a hacer división larga pero no hacerlo de forma fiable.
O por qué puede articular reglas lógicas pero fallar en la inferencia básica.
O por qué produce un lenguaje impecable y un razonamiento frágil.
La explicación es el recuerdo de patrones.
La ejecución es computación.
Los LLMs destacan en la primera y tienen dificultades fundamentales en la segunda.
En lo más profundo de la arquitectura, los embejos difuminan significados que los humanos mantienen separados.
El artículo da un ejemplo hilarante: "9.11" se sitúa más cerca del "11 de septiembre" que de "nueve punto once" porque las incrustaciones de tokens promedian en todos los contextos que han visto. Esa "contaminación contextual" hace imposible el razonamiento simbólico limpio.
Además...
Los transformadores solo pueden producir "promedios ponderados" de lo que han visto. No pueden generar nuevos valores simbólicos como "3354" a partir de "43 × 78" usando cálculos reales.
...

Populares
Ranking
Favoritas
