Na rynkach predykcyjnych z N wynikami słyszałem, że prowadzą osobne książki zleceń YES/NO dla każdego wyniku i polegają na arbitrażystach, aby "zrównoważyć" takie rynki. Jeśli tak jest, to dlaczego? Dlaczego giełdy nie dokonują implikowanego dopasowania atomowo, aby zwiększyć płynność?
Na przykład, jeśli są 3 wyniki i złożę zlecenie limit NO przy 30% szansie na każdy z wyników, to te zlecenia będą czekać, aż arbitrażysta dopasuje wszystkie 3 za łącznie 90 centów. Po złożeniu pierwszych dwóch zleceń, giełda powinna zamiast tego pokazać implikowane zlecenie YES na 40 centów dla trzeciego wyniku i uniemożliwić mi złożenie mojego trzeciego zlecenia. Wydaje się, że to wyraźnie zwiększa płynność dla użytkowników, dając im lepsze ceny, węższe spready, a także wyższy wolumen dla giełdy, ponieważ każde zlecenie, które może być dopasowane, zostanie dopasowane. Ponadto arbitrażystowie nie będą dopasowywać zleceń o zerowej implikacji, ponieważ nie ma zysku z arbitrażu, podczas gdy giełdy będą to robić z przyjemnością.
Na koniec, to nie wydaje się szczególnie skomplikowane obliczeniowo dla silnika dopasowującego. Dla jednego rynku predykcyjnego, może po prostu utrzymywać bieżącą sumę najlepszych ofert i bieżącą sumę najlepszych zapytań dla każdego z N wyników. To jest operacja O(1) przy składaniu zamówienia. Jeśli suma najlepszych ofert przekroczy 1, lub suma najlepszych zapytań przekroczy N-1, wtedy dopasuj zamówienia we wszystkich wynikach w domyślną transakcję. To jest O(N), ale dopasowujesz N zamówień.
Obecnie nie mogę wymyślić sposobu na efektywne serwowanie pełnego "implied orderbook", ale przynajmniej cena dotykowa może być serwowana niezwykle efektywnie z minimalnym narzutem. Ilość dotykowa mogłaby być serwowana, jeśli utrzymywany jest min-heap (na podstawie rozmiaru zamówienia przy dotyku), chociaż jest to mniej efektywne niż O(1) na zamówienie (może być O(log n))
1,79K