I migliori articoli sull'AI su @huggingface questa settimana (20-26 ottobre): - Uno studio teorico sul collegamento tra probabilità interna e auto-consistenza per il ragionamento LLM - Formazione efficiente di modelli linguistici a lungo contesto tramite disaggregazione dell'attenzione centrale - LightMem: generazione leggera ed efficiente con memoria aumentata - Ogni attenzione conta: un'architettura ibrida efficiente per il ragionamento a lungo contesto - DeepAnalyze: modelli linguistici di grandi dimensioni agentici per la scienza dei dati autonoma - Mondo-in-Mondo: modelli del mondo in un mondo a ciclo chiuso - BAPO: stabilizzazione dell'apprendimento per rinforzo off-policy per LLM tramite ottimizzazione della politica bilanciata con clipping adattivo - OmniVinci: miglioramento dell'architettura e dei dati per la comprensione LLM omni-modale - UniGenBench++: un benchmark di valutazione semantica unificato per la generazione di testo in immagine - Creazione collaborativa di articoli da carta a pagina per meno di $0.1 Trovali qui sotto: