¿Puede la IA razonar realmente sobre los mercados de predicción—o simplemente hacer coincidencia de patrones con datos de entrenamiento? Inspirados en el agente de @ahall_research (que hizo un +60% de comercio pero también pensaba que las elecciones de 2026 "ya habían ocurrido"), hemos trazado cómo mejorar el agente de IA de Polymarket. Crédito: @0xfishylosopher
@ahall_research @0xfishylosopher Nuestro agente ya utiliza consenso de 3 modelos (GPT, Gemini, Claude), pero nos faltan características cruciales que detectan errores de razonamiento antes de que se conviertan en operaciones costosas. A continuación, 5 funciones con las que necesitamos ayuda de la comunidad.
@ahall_research @0xfishylosopher 1️⃣ Sistema de Debate Modelo En lugar de limitarse a votar, los modelos deberían desafiarse entre sí. Cuando Claude afirmó que "Sleigh Ride nunca llega al Top 10", solo el desafío de otro modelo hizo que admitiera el error y actualizara.
@ahall_research @0xfishylosopher 2️⃣ Integración del Sentimiento de las Noticias El mejor trato del agente de Kalshi vino de analizar noticias documentales de Epstein a través de GDELT. Nuestro agente es ciego a los acontecimientos actuales—una gran brecha para los mercados políticos.
@ahall_research @0xfishylosopher 3️⃣ Chequeos de razonamiento temporal Los LLMs confunden pasado y futuro constantemente. Necesitamos una verificación explícita: "¿Ya ha ocurrido este evento?" antes de cada operación.
@ahall_research @0xfishylosopher 4️⃣ Verificación de hechos históricos Las modelos alucinan con confianza sobre la historia. Añadir una capa de verificación para detectar afirmaciones falsas sobre "lo que suele pasar".
@ahall_research @0xfishylosopher Construido con micropagos x402: el agente paga su propia IA. Sin claves API, economía autónoma. Los colaboradores querían 🚀 que eligiera una función y la enviara. Vamos a ver sobre qué pueden razonar realmente los agentes de IA.
1.05K