Halucinace u LLM nejsou jen chyby; Očekává se to. Jak tedy můžeme důvěřovat výstupu? V nedávném streamu přišel @Shonik14, náčelník štábu @Mira_Network, s ostrým pohledem: Dokonce i GPT-3.5 může mít halucinace až ve 27 % případů. Žádný jednotlivý model nemůže zaručit "správnou odpověď" pokaždé. Jejich řešení? Mechanismus konsensu pro LLM, ne nepodobný tomu, co vidíme v blockchainech. ✅ Více modelů se vzájemně křížově kontroluje ✅ Odpovědi jsou bodovány ✅ Pokud model produkuje nesprávné výstupy, jeho sázka se sníží Výsledek? Motivační systém, kde jsou uzly odměňovány za přesný výstup a penalizovány za BS. To vyvolává obecnější otázku pro ekonomiku agentů: Je modelový konsensus budoucností důvěry v umělou inteligenci? A jak byste tuto myšlenku aplikovali ve své agentské infrastruktuře? Podělte se o své myšlenky👇
2,42K