Halusinasi dalam LLM bukan hanya serangga; mereka diharapkan. Jadi, bagaimana kita mempercayai output? Dalam aliran baru-baru ini, @Shonik14, Kepala Staf @Mira_Network, mengemukakan pandangan tajam: Bahkan GPT-3.5 dapat berhalusinasi hingga 27% dari waktu. Tidak ada model tunggal yang dapat menjamin "jawaban yang benar" setiap saat. Solusi mereka? Mekanisme konsensus untuk LLM, tidak berbeda dengan apa yang kita lihat di blockchain. ✅ Beberapa model saling memeriksa silang ✅ Jawaban dicetak ✅ Jika model menghasilkan output yang salah, taruhannya akan dipotong Hasilnya? Sistem insentif di mana node diberi imbalan untuk output yang akurat dan dihukum untuk BS. Ini menimbulkan pertanyaan yang lebih luas untuk ekonomi agen: Apakah konsensus model adalah masa depan kepercayaan AI? Dan bagaimana Anda menerapkan ide ini di infra agen Anda? Bagikan pemikiran👇 Anda
2,42K