A IA realmente consegue raciocinar sobre mercados de previsão — ou apenas fazer a correspondência de padrões com dados de treinamento? Inspirados pelo agente da @ahall_research (que fez +60% de transação, mas também achava que as eleições de 2026 "já tinham acontecido"), traçamos como melhorar o agente de IA da Polymarket. Crédito: @0xfishylosopher
@ahall_research @0xfishylosopher Nosso agente já usa consenso de 3 modelos (GPT, Gemini, Claude), mas estamos faltando recursos cruciais que detectam erros de raciocínio antes que se tornem operações caras. 5 recursos com os quais precisamos de ajuda da comunidade abaixo.
@ahall_research @0xfishylosopher 1️⃣ Sistema de Debate Modelo Em vez de apenas votar, os modelos deveriam desafiar umas às outras. Quando Claude afirmou que "Sleigh Ride nunca chega ao Top 10", apenas o desafio de outro modelo fez com que ele admitisse o erro e atualizasse.
@ahall_research @0xfishylosopher 2️⃣ Integração do Sentimento de Notícias A melhor troca do agente de Kalshi veio da análise das notícias do documentário de Epstein via GDELT. Nosso agente é cego aos acontecimentos atuais — enorme lacuna para os mercados políticos.
@ahall_research @0xfishylosopher 3️⃣ Verificações de Raciocínio Temporal LLMs confundem passado e futuro constantemente. Precisamos de uma verificação explícita: "Esse evento já aconteceu?" antes de cada operação.
@ahall_research @0xfishylosopher 4️⃣ Verificação de Fato Histórico Modelos alucinam com confiança sobre a história. Adicione uma camada de verificação para detectar falsas alegações sobre "o que normalmente acontece."
@ahall_research @0xfishylosopher Construído com micropagamentos x402 — o agente paga pela própria IA. Sem chaves API, economia autônoma de verdade. Os colaboradores queriam 🚀 escolher um recurso e lançá-lo. Vamos descobrir sobre o que agentes de IA realmente podem raciocinar.
1,05K