跳轉至主要內容
行情
掃鏈
追蹤
信號
牛人榜
兌換
資產
邀請計劃
更多
產品
DeFi
市場
洞察中心
Eco Hub
安全中心
開發者中心
DEX API
探索 DEX API
DEX API 文檔
API Key 管理
區塊鏈瀏覽器
X Layer
探索 X Layer
X Layer 瀏覽器
跨鏈橋
開發者文檔
測試網水龍頭
GitHub
DApp 連接錢包
Boost
X Launch
參與 X Launch,搶先賺新幣
Giveaway
完成指定任務,領取空投好禮
交易賽
交易熱門代幣,衝榜贏大獎
獎勵中心
領取獎勵和空投
預警
語言
貨幣
下載 OKX Wallet
Web3 指南
公告
返回
繁體中文
简体中文
English
Tiếng Việt
Русский
Español (Latinoamérica)
Bahasa Indonesia
Français
Deutsch
Italiano
Polski
Čeština
Română
Português (Portugal)
Português (Brasil)
Українська
Español (España)
Nederlands
العربية
日本語
Norsk (bokmål)
Suomi
Svenska
返回
返回
使用教程
學院
幫助中心
發現功能使用指南
熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
Hosico
+8.37%
USELESS
-8.19%
IKUN
-6.01%
gib
-0.98%
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
Bonk
-2.48%
ALON
-3.53%
LAUNCHCOIN
-11.35%
GOONC
-4.35%
KLED
-0.57%
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
BOOP
+0.02%
Boopa
-36.31%
PORK
+3.24%
主頁
Jessy Lin
博士@Berkeley_AI,訪問研究員@AIatMeta。互動式語言代理程式 🤖 💬
查看原文
Jessy Lin
10月22日 02:09
作為我們最近在記憶層架構方面工作的部分,我寫下了我對持續學習問題的一些想法: 部落格文章: 一些闡述超出了記憶層的範疇,所以我認為單獨強調一下會很有用:
183.14K
1.07K
Jessy Lin
10月21日 23:48
🧠 我們如何為大型語言模型(LLMs)配備記憶,使其能夠不斷學習新事物? 在我們與 @AIatMeta 的新論文中,我們展示了如何稀疏微調記憶層,使其能夠針對性地更新以進行持續學習,並且對現有知識的干擾最小。 雖然完全微調和 LoRA 在保留的任務性能上會出現劇烈下降(📉-89% FT,-71% LoRA 在事實學習任務上),但記憶層以更少的遺忘學習到相同的量(-11%)。 🧵:
284.96K
1.81K
熱門
排行
收藏