Головні статті про штучний інтелект на @huggingface цього тижня (20-26 жовтня): - Теоретичне дослідження мостової внутрішньої ймовірності та самоузгодженості для міркувань LLM - Ефективне навчання довгоконтекстної мовної моделі шляхом дезагрегації основної уваги - LightMem: легка та ефективна генерація з розширеною пам'яттю - Кожна увага має значення: ефективна гібридна архітектура для міркувань у довгому контексті - DeepAnalyze: агентичні моделі великих мов для автономної науки про дані - Світ-в-світі: моделі світу в світі замкнутого циклу - BAPO: Стабілізація навчання з підкріпленням поза політикою для LLM за допомогою збалансованої оптимізації політик за допомогою адаптивного кліппінгу - OmniVinci: Покращення архітектури та даних для всемодального розуміння LLM - UniGenBench++: єдиний еталон семантичної оцінки для генерації тексту в зображення - Спільне створення паперу на сторінці між людиною та агентом менш ніж за 0,1 долара США Знайдіть їх нижче: