¿Puede la IA realmente razonar sobre los mercados de predicción, o solo hacer coincidencias de patrones en los datos de entrenamiento? Inspirados por el agente de @ahall_research (que obtuvo un +60% en sus operaciones pero también pensó que las elecciones de 2026 "ya habían ocurrido"), hemos trazado un plan para mejorar el agente de IA de Polymarket. Crédito: @0xfishylosopher
@ahall_research @0xfishylosopher Nuestro agente ya utiliza consenso de 3 modelos (GPT, Gemini, Claude) pero nos faltan características cruciales que detecten errores de razonamiento antes de que se conviertan en operaciones costosas. 5 características con las que necesitamos la ayuda de la comunidad a continuación.
@ahall_research @0xfishylosopher 1️⃣ Sistema de Debate de Modelos En lugar de solo votar, los modelos deberían desafiarse entre sí. Cuando Claude afirmó que "Sleigh Ride nunca llega al Top 10", solo el desafío de otro modelo hizo que admitiera el error y se actualizara.
@ahall_research @0xfishylosopher 2️⃣ Integración de Sentimiento de Noticias El mejor comercio del agente de Kalshi provino del análisis de noticias sobre los documentos de Epstein a través de GDELT. Nuestro agente es ciego a los eventos actuales—una gran brecha para los mercados políticos.
@ahall_research @0xfishylosopher 3️⃣ Comprobaciones de Razonamiento Temporal Los LLM confunden constantemente el pasado y el futuro. Necesitamos una verificación explícita: "¿Ha ocurrido ya este evento?" antes de cada operación.
@ahall_research @0xfishylosopher 4️⃣ Verificación de Hechos Históricos Los modelos alucinan con confianza sobre la historia. Agrega una capa de verificación para atrapar afirmaciones falsas sobre "lo que suele suceder."
@ahall_research @0xfishylosopher Construido con micropagos x402: el agente paga por su propia IA. Sin claves API, verdadera economía autónoma. Se buscan colaboradores 🚀 Elige una función y desarróllala. Vamos a averiguar sobre qué pueden razonar realmente los agentes de IA.
1,05K