L'AI può davvero ragionare sui mercati delle previsioni—o si limita a riconoscere schemi nei dati di addestramento? Ispirati dall'agente di @ahall_research (che ha realizzato un +60% di profitti ma pensava anche che le elezioni del 2026 "fossero già avvenute"), abbiamo mappato come migliorare l'agente AI di Polymarket. Crediti: @0xfishylosopher
@ahall_research @0xfishylosopher Il nostro agente utilizza già il consenso a 3 modelli (GPT, Gemini, Claude) ma ci mancano funzionalità cruciali che catturano gli errori di ragionamento prima che diventino operazioni costose. 5 funzionalità di cui abbiamo bisogno dell'aiuto della comunità qui sotto.
@ahall_research @0xfishylosopher 1️⃣ Sistema di Dibattito dei Modelli Invece di votare semplicemente, i modelli dovrebbero sfidarsi a vicenda. Quando Claude ha affermato che "Sleigh Ride non entra mai nella Top 10", solo la sfida di un altro modello ha fatto ammettere l'errore e aggiornare.
@ahall_research @0xfishylosopher 2️⃣ Integrazione del Sentiment delle Notizie Il miglior scambio dell'agente Kalshi è derivato dall'analisi delle notizie sui documenti di Epstein tramite GDELT. Il nostro agente è cieco agli eventi attuali—un enorme divario per i mercati politici.
@ahall_research @0xfishylosopher 3️⃣ Controlli di Ragionamento Temporale I LLM confondono costantemente passato/futuro. Abbiamo bisogno di una verifica esplicita: "Questo evento è già avvenuto?" prima di ogni scambio.
@ahall_research @0xfishylosopher 4️⃣ Verifica dei Fatti Storici I modelli hallucinano con sicurezza sulla storia. Aggiungi uno strato di verifica per catturare affermazioni false su "cosa succede di solito."
@ahall_research @0xfishylosopher Costruito con micropagamenti x402—l'agente paga per la propria AI. Nessuna chiave API, vera economia autonoma. Contributori cercasi 🚀 Scegli una funzionalità e realizzala. Scopriamo di cosa possono realmente ragionare gli agenti AI.
1,04K