Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Коли вийшов RETRO, я вважав, що пошук — це велика справа для LLM, щоб зменшити кількість параметрів і збільшити глибину знань моделей. Мене здивувало, що компанії уникали такої ідеї.
Вейл пропонує Retrieval:
> Найпомітніше, що модуль пам'яті має сприяти отриманню знань (наприклад, MMLU +3.4; CMMLU +4.0), ми спостерігаємо ще більші прирости у загальному мисленні (наприклад, BBH +5.0; ARC-Challenge +3.7) та домени кодування/математики (HumanEval +3.0; МАТЕМАТИКА +2.4). Механістичний аналіз показує, що Енграм звільняє ранні шари хребта від статичної реконструкції, ефективно поглиблюючи мережу для складного мислення.

Найкращі
Рейтинг
Вибране
