Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Mierda... Este artículo podría ser el cambio más importante en cómo usamos los LLMs durante todo el año.
"Grandes modelos causales a partir de grandes modelos de lenguaje."
Muestra que puedes desarrollar modelos causales completos directamente a partir de un LLM, no aproximaciones, ni de vibraciones, ni de gráficos causales reales, contrafactuales, intervenciones y estructuras controladas por restricciones.
Y la forma en que lo hacen es una locura:
En lugar de entrenar un modelo causal especializado, interrogan al LLM como un científico:
→ extraer un grafo causal candidato del texto
→ pide al modelo que compruebe las dependencias condicionales
→ detectar contradicciones
→ revisar la estructura
→ poner a prueba los contrafactuales y las predicciones intervencionistas
→ iterar hasta que el modelo causal se estabilice
El resultado es algo que nunca antes habíamos tenido:
un sistema causal construido dentro del LLM usando su propio conocimiento latente del mundo.
En dominios sintéticos, reales y complicados en benchmarks, estos LCMs superan a los métodos clásicos de descubrimiento causal porque extraen del enorme conocimiento previo del LLM en lugar de solo correlaciones locales.
¿Y el razonamiento contrafactual?
Sorprendentemente fuerte.
El modelo puede responder preguntas de "¿y si" que los algoritmos estándar fallan completamente, simplemente porque ya "sabe" cosas sobre el mundo que esos algoritmos no pueden inferir solo con los datos.
Este artículo insinúa un futuro en el que los LLM no sean solo máquinas de patrones....

Populares
Ranking
Favoritas
