Czy AI naprawdę potrafi rozumować na temat rynków predykcyjnych—czy tylko dopasowuje wzorce do danych treningowych? Zainspirowani agentem @ahall_research (który zrealizował +60% zysku, ale także myślał, że wybory w 2026 roku "już się odbyły"), opracowaliśmy, jak poprawić agenta AI Polymarket. Kredyt: @0xfishylosopher
@ahall_research @0xfishylosopher Nasz agent już korzysta z konsensusu 3-modelowego (GPT, Gemini, Claude), ale brakuje nam kluczowych funkcji, które wychwytują błędy w rozumowaniu, zanim staną się kosztownymi transakcjami. 5 funkcji, w których potrzebujemy pomocy społeczności poniżej.
@ahall_research @0xfishylosopher 1️⃣ System debatowy modeli Zamiast po prostu głosować, modele powinny się nawzajem wyzywać. Kiedy Claude stwierdził, że "Sleigh Ride nigdy nie trafia do Top 10", tylko wyzwanie innego modelu sprawiło, że przyznał się do błędu i zaktualizował.
@ahall_research @0xfishylosopher 2️⃣ Integracja nastrojów wiadomości Najlepsza transakcja agenta Kalshi pochodziła z analizy wiadomości dotyczących dokumentów Epsteina za pośrednictwem GDELT. Nasz agent jest ślepy na bieżące wydarzenia—ogromna luka na rynkach politycznych.
@ahall_research @0xfishylosopher 3️⃣ Kontrole rozumowania temporalnego LLM mylą przeszłość/z przyszłością nieustannie. Potrzebujemy wyraźnej weryfikacji: "Czy to zdarzenie już miało miejsce?" przed każdą transakcją.
@ahall_research @0xfishylosopher 4️⃣ Weryfikacja faktów historycznych Modele pewnie halucynują na temat historii. Dodaj warstwę weryfikacji, aby wychwycić fałszywe twierdzenia na temat "tego, co zazwyczaj się zdarza."
@ahall_research @0xfishylosopher Zbudowane z x402 mikropłatności—agent płaci za własne AI. Brak kluczy API, prawdziwa autonomiczna ekonomia. Poszukiwani współpracownicy 🚀 Wybierz funkcję i wdrażaj ją. Zobaczmy, o czym tak naprawdę mogą myśleć agenci AI.
1,02K