A IA consegue realmente raciocinar sobre mercados de previsão—ou apenas fazer correspondência de padrões com dados de treino? Inspirados pelo agente de @ahall_research (que fez +60% de lucro nas negociações, mas também pensou que as eleições de 2026 "já aconteceram"), mapeámos como melhorar o agente de IA da Polymarket. Crédito: @0xfishylosopher
@ahall_research @0xfishylosopher O nosso agente já utiliza consenso de 3 modelos (GPT, Gemini, Claude), mas estamos a perder funcionalidades cruciais que detectam erros de raciocínio antes que se tornem negociações dispendiosas. 5 funcionalidades com as quais precisamos da ajuda da comunidade abaixo.
@ahall_research @0xfishylosopher 1️⃣ Sistema de Debate de Modelos Em vez de apenas votar, os modelos devem desafiar-se uns aos outros. Quando Claude afirmou que "Sleigh Ride nunca chega ao Top 10", apenas o desafio de outro modelo fez com que admitisse o erro e atualizasse.
@ahall_research @0xfishylosopher 2️⃣ Integração de Sentimento de Notícias O melhor negócio do agente Kalshi veio da análise das notícias dos documentos Epstein via GDELT. Nosso agente é cego a eventos atuais—uma grande lacuna para os mercados políticos.
@ahall_research @0xfishylosopher 3️⃣ Verificações de Raciocínio Temporal Os LLMs confundem constantemente o passado/futuro. Precisamos de verificação explícita: "Este evento já ocorreu?" antes de cada negociação.
@ahall_research @0xfishylosopher 4️⃣ Verificação de Fatos Históricos Os modelos alucinam com confiança sobre a história. Adicione uma camada de verificação para capturar afirmações falsas sobre "o que geralmente acontece."
@ahall_research @0xfishylosopher Construído com micropagamentos x402—o agente paga pela sua própria IA. Sem chaves de API, verdadeira economia autónoma. Contribuidores procurados 🚀 Escolha uma funcionalidade e implemente-a. Vamos descobrir sobre o que os agentes de IA conseguem realmente raciocinar.
1,04K