熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
LLM中的幻覺不僅僅是錯誤;它們是預期的。那么,我們如何信任輸出呢?
在最近的一次直播中,@Shonik14,@Mira_Network的幕僚長,提出了一個尖銳的看法:
// 即使是GPT-3.5也可能有高達27%的時間出現幻覺。
// 沒有任何單一模型能保證每次都能給出“正確答案”。
他們的解決方案是?
一種LLM的共識機制,與我們在區塊鏈中看到的類似。
✅ 多個模型相互交叉檢查
✅ 答案被評分
✅ 如果一個模型產生錯誤的輸出,它的股份會被削減
結果是?一個激勵系統,節點因準確的輸出而獲得獎勵,因胡說八道而受到懲罰。
這引發了代理經濟的一個更廣泛問題:模型共識是AI信任的未來嗎?你會如何在你的代理基礎設施中應用這個想法?
分享你的想法👇
2.43K
熱門
排行
收藏