Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Heute habe ich einen Artikel aus dem Jahr 2025 mit dem Titel "Vorhersage kurzfristiger Preisbewegungen von Kryptowährungen mit Orderbuchdaten" gelesen. Der Autor hat auch den X-Account @Kev, den ihr euch anschauen könnt. Die zentrale Erkenntnis der Arbeit: Die Vorverarbeitung von Hochfrequenzdaten hat Vorrang vor der Komplexität des Modells. Das bedeutet, dass nach einer gründlichen Datenbereinigung manuell gestaltete Merkmale und einfache Modelle in ihrer Leistung mit vollautomatischen (neuronalen Netzwerken, die Merkmale automatisch lernen) tiefen Modellen vergleichbar sind, wenn nicht sogar besser. Diese Erkenntnis ist im traditionellen Finanzbereich ein weit verbreiteter Konsens, aber es gibt nicht viele Studien zu diesem Thema im Kryptomarkt.
Die Forschungsdaten stammen aus dem ursprünglichen L2-Orderbuch von Bybit, das am 30. Januar 2025 über die öffentliche API bereitgestellt wurde. Alle 100 ms ein Snapshot, wobei jeder Snapshot maximal 200 Ebenen von Kauf- und Verkaufsaufträgen enthält. Das Hauptexperiment verwendete 100.000 Datenpunkte (ca. 166 Minuten), während das sequenzielle Experiment auf 1.000.000 Datenpunkte (ca. 28 Stunden) ausgeweitet wurde. Die Daten sind kostenlos verfügbar, sodass die Reproduzierbarkeit der Arbeit gut ist.
Die Forschungsmethode bestand darin, die Daten in drei Gruppen zu unterteilen: ungefiltert, SG-Filterung und Kalman-Filterung, und diese dann in sechs Modelle einzuspeisen. Unter zwei Klassifikationen (steigend/fallend) und drei Klassifikationen (steigend/stabil/fallend) wurde jeweils die Preisrichtung 100 ms / 500 ms / 1 s später vorhergesagt. Insgesamt gab es 3 (Datenvorverarbeitung) × 6 (6 Modellgruppen) × 2 (Vorhersageergebnisse als binäre oder dreifache Klassifikation) × 3 (drei Vorhersagezeitfenster) = 108 Experimente.
Die Modelle wurden nach Komplexität wie folgt gruppiert:
- Einfache Modelle (logistische Regression und XGBoost): Manuell gestaltete Merkmale (z. B. Differenz zwischen Kauf- und Verkaufsvolumen, Ungleichgewicht von Angebot und Nachfrage) werden als Eingabe für das Modell verwendet. Sie sind am schnellsten, und wir können verstehen, wie das Modell basierend auf den Merkmalen Entscheidungen trifft, wir wissen, warum es so ist.
- Hybride Modelle (CNN+CatBoost und CNN+XGBoost): Hier werden keine manuell gestalteten Merkmale mehr verwendet, sondern das neuronale Netzwerk lernt selbst die Merkmale der Daten und gibt diese dann an Entscheidungsbäume weiter. Der Vorteil ist, dass möglicherweise Kombinationen von Merkmalen entdeckt werden, die manuell nicht gedacht wurden, der Nachteil ist, dass diese Merkmale schwer zu erklären sind, man weiß, dass es so ist, aber nicht warum.
- Tiefe Modelle (DeepLOB und seine vereinfachte Version): Vollständig End-to-End-neuronale Netzwerke, die von der Merkmalsextraktion (und dem Unterschied zu vorherigen Modellen, dass diesmal auch sequenzielle Informationen als Merkmale extrahiert werden können) bis zur endgültigen Entscheidung alles automatisch erledigen, man weiß, dass es so ist, aber nicht warum.
Die Bewertungskennzahl ist die Vorhersagegenauigkeit (technisch als F1-Score bezeichnet, der sowohl "wie oft hast du recht, wenn du steigende Preise sagst" als auch "wie oft hast du steigende Preise erfasst, wenn sie tatsächlich steigen" misst, von 0 bis 1, je höher desto besser). Gleichzeitig wird die Trainingszeit aufgezeichnet. 80 % der Daten werden für das Training und 20 % für den Test verwendet, ohne Kreuzvalidierung, da zeitliche Daten nicht zufällig durcheinandergebracht werden können.
Kernpunkt 1: Datenqualität ist wichtiger als die Modellwahl
Nehmen wir als Beispiel die Vorhersage mit dreifacher Klassifikation des Orderbuchs mit 500 ms und 40 Ebenen:
- Bei demselben XGBoost betrug die Vorhersagegenauigkeit mit den Rohdaten 0,45, nach SG-Glättung stieg sie auf 0,54, was eine Verbesserung von etwa 21 % darstellt.
- Wenn das Modell durch das komplexere DeepLOB ersetzt wird, ist die Genauigkeit mit den Rohdaten sogar niedriger (0,43). Selbst wenn DeepLOB auch SG-Glättung anwendet (0,52), ist es immer noch schlechter als XGBoost+SG (0,54).
Die Verbesserung der Datenqualität übertrifft bei weitem die Verbesserung der Modellkomplexität.
Warum ist die SG-Filterung so effektiv?
Die Rohdaten des Orderbuchs sind sehr rau, die Preise und Auftragsvolumina schwanken in Millisekunden stark, was in der Branche oft als "Flackern" bezeichnet wird, das durch die schnelle Anpassung der Preise durch Market Maker verursacht wird. Die SG-Filterung verwendet ein kleines Fenster, das über die Daten gleitet, und passt an jedem Punkt im Fenster eine glatte Kurve an, wobei der Wert des Mittelpunktes der Kurve als glattes Ergebnis verwendet wird. Im Gegensatz zum einfachen gleitenden Durchschnitt entfernt es nicht die tatsächlichen Wendepunkte des Trends – denn es passt die Kurve an die Form der Daten an, anstatt einfach den Durchschnitt zu nehmen. In scipy kann dies mit einer Zeile Code aufgerufen werden, das Fenster 21 und ein drittes Polynom sind die stabilsten Parameter in der Arbeit und können als Ausgangspunkt für weitere Forschungen dienen.
2. Das Entscheidungsfenster begrenzt die Modellkomplexität
Hier müssen zwei Konzepte unterschieden werden:
- Die Trainingszeit ist die Offline-Trainingszeit des Modells (einmalig)
- Die Inferenzzeit ist die Zeit, die das Modell benötigt, um eine Vorhersage zu treffen, wenn neue Daten in Echtzeit eintreffen.
Die Inferenzfrequenz hängt vom Design der Strategie ab, die Dauer des Entscheidungsfensters bestimmt die Obergrenze der Inferenzgeschwindigkeit, und die Obergrenze der Inferenzgeschwindigkeit begrenzt die Modellkomplexität.
...

Top
Ranking
Favoriten
