Poate AI să raționeze cu adevărat despre piețele de predicție — sau doar să potrivească tiparele pe baza datelor de antrenament? Inspirați de agentul lui @ahall_research (care a făcut +60% tranzacție, dar credea că alegerile din 2026 "au avut deja loc"), am cartografiat cum să îmbunătățim agentul AI al Polymarket. Credit: @0xfishylosopher
@ahall_research @0xfishylosopher Agentul nostru folosește deja consensul în 3 modele (GPT, Gemini, Claude), dar ne lipsesc funcții cruciale care detectează erorile de raționament înainte ca acestea să devină tranzacții costisitoare. 5 funcționalități pentru care avem nevoie de ajutorul comunității mai jos.
@ahall_research @0xfishylosopher 1️⃣ Sistem Model de dezbateri În loc să voteze pur și simplu, modelele ar trebui să se provoace reciproc. Când Claude a susținut că "Sligh Ride nu ajunge niciodată în Top 10", doar provocarea unui alt model l-a făcut să recunoască eroarea și să actualizeze.
@ahall_research @0xfishylosopher 2️⃣ Integrarea sentimentului știrilor Cea mai bună tranzacție a agentului Kalshi a venit din analiza știrilor documentare despre Epstein prin GDELT. Agentul nostru este orb la evenimentele curente — un decalaj uriaș pentru piețele politice.
@ahall_research @0xfishylosopher 3️⃣ Verificări de raționament temporal LLM-urile confundă constant trecutul și viitorul. Avem nevoie de o verificare explicită: "A avut loc deja acest eveniment?" înainte de fiecare tranzacție.
@ahall_research @0xfishylosopher 4️⃣ Verificarea faptelor istorice Modelele halucinează cu încredere despre istorie. Adaugă un strat de verificare pentru a depista afirmațiile false despre "ce se întâmplă de obicei".
@ahall_research @0xfishylosopher Construit cu microplăți x402 — agentul plătește pentru AI-ul său. Fără chei API, adevărată economie autonomă. Contribuitorii doreau 🚀 să aleagă o funcție și să o distribuie. Să vedem despre ce pot raționa agenții AI.
1,04K