LLM中的幻覺不僅僅是錯誤;它們是預期的。那么,我們如何信任輸出呢? 在最近的一次直播中,@Shonik14,@Mira_Network的幕僚長,提出了一個尖銳的看法: // 即使是GPT-3.5也可能有高達27%的時間出現幻覺。 // 沒有任何單一模型能保證每次都能給出“正確答案”。 他們的解決方案是? 一種LLM的共識機制,與我們在區塊鏈中看到的類似。 ✅ 多個模型相互交叉檢查 ✅ 答案被評分 ✅ 如果一個模型產生錯誤的輸出,它的股份會被削減 結果是?一個激勵系統,節點因準確的輸出而獲得獎勵,因胡說八道而受到懲罰。 這引發了代理經濟的一個更廣泛問題:模型共識是AI信任的未來嗎?你會如何在你的代理基礎設施中應用這個想法? 分享你的想法👇
2.43K