Los mejores documentos de IA sobre @huggingface esta semana (del 20 al 26 de octubre): - Un estudio teórico sobre cómo unir la probabilidad interna y la autoconsistencia para el razonamiento de LLM - Entrenamiento eficiente del modelo de lenguaje de contexto largo mediante la desagregación de la atención central - LightMem: generación aumentada de memoria ligera y eficiente - Cada atención importa: una arquitectura híbrida eficiente para el razonamiento de contexto largo - DeepAnalyze: Modelos de lenguaje grande agéntico para ciencia de datos autónoma - Mundo en mundo: modelos mundiales en un mundo de circuito cerrado - BAPO: Estabilización del aprendizaje por refuerzo fuera de la política para LLM a través de la optimización equilibrada de políticas con recorte adaptativo - OmniVinci: Mejora de la arquitectura y los datos para la comprensión omnimodal LLM - UniGenBench++: Un punto de referencia de evaluación semántica unificado para la generación de texto a imagen - Manualidades colaborativas de papel a página entre humanos y agentes por menos de $ 0.1 Encuéntralos a continuación: