Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Aujourd'hui, j'ai lu un article de 2025 intitulé "Prédire les tendances de prix à court terme des cryptomonnaies à l'aide des données de carnet de commandes", l'auteur a également un compte X @Kev, vous pouvez aller y jeter un œil. La découverte principale de l'article : le prétraitement des données haute fréquence est prioritaire par rapport à la complexité du modèle, c'est-à-dire qu'après avoir bien nettoyé les données, la conception manuelle des caractéristiques + un modèle simple donne des performances comparables, voire meilleures, qu'un modèle profond entièrement automatique (apprentissage automatique des caractéristiques par réseau de neurones). Cette découverte est un consensus dans le domaine financier traditionnel, mais il est rare de voir des recherches de ce type sur le marché des cryptomonnaies.
Les données de recherche de l'auteur proviennent des données brutes de carnet de commandes L2 de l'API publique de Bybit, datées du 30 janvier 2025. Un instantané toutes les 100 ms, avec un maximum de 200 niveaux d'ordres d'achat et de vente par instantané. L'expérience principale a utilisé 100 000 lignes (environ 166 minutes), et l'expérience séquentielle a été étendue à 1 million de lignes (environ 28 heures). Les données sont disponibles gratuitement, donc la reproductibilité de l'article est assez bonne.
La méthode de recherche consiste à diviser les données en trois groupes : non filtrées, filtrage SG, filtrage de Kalman, puis à les entrer dans 6 modèles différents, pour prédire la direction des prix après 100 ms / 500 ms / 1 s sous deux étiquettes : classification binaire (hausse/baisse) et classification trinaire (hausse/stable/baisse). Au total, il y a 3 (prétraitement des données) × 6 (6 groupes de modèles) × 2 (résultat de prédiction en classification binaire ou trinaire) × 3 (trois fenêtres de temps de prédiction) = 108 groupes d'expériences.
Les modèles sont regroupés par complexité comme suit :
- Modèles simples (régression logistique et XGBoost) : caractéristiques conçues manuellement (comme la différence de volume d'achat et de vente, déséquilibre de l'offre et de la demande), utilisées comme entrée du modèle. Ils sont les plus rapides, et nous pouvons comprendre comment le modèle prend des décisions basées sur les caractéristiques, ce qui nous permet de comprendre non seulement le résultat, mais aussi les raisons derrière.
- Modèles hybrides (CNN+CatBoost et CNN+XGBoost) : il ne s'agit plus de concevoir manuellement des caractéristiques, mais de laisser le réseau de neurones apprendre lui-même les caractéristiques des données, puis d'entrer ces caractéristiques dans un arbre de décision. L'avantage est qu'il peut découvrir des combinaisons de caractéristiques que l'on n'aurait pas imaginées, mais le désavantage est que ces caractéristiques sont difficiles à expliquer, nous savons ce qui se passe, mais pas pourquoi.
- Modèles profonds (DeepLOB et sa version simplifiée) : un réseau de neurones entièrement de bout en bout, de l'extraction des caractéristiques (et la différence avec les précédents est que cette fois, il peut extraire des informations séquentielles comme caractéristiques) à la décision finale, tout est automatisé, nous savons ce qui se passe, mais pas pourquoi.
L'indicateur d'évaluation est le taux de prédiction correct (techniquement appelé score F1, qui mesure à la fois "combien de fois vous avez dit que ça allait monter et que ça a vraiment monté" et "combien de fois vous avez capturé une montée réelle", de 0 à 1, plus c'est élevé, mieux c'est). Le temps d'entraînement est également enregistré. 80 % des données pour l'ensemble d'entraînement, 20 % pour l'ensemble de test, sans validation croisée, car les données temporelles ne conviennent pas à un mélange aléatoire.
Point clé 1 : La qualité des données est plus importante que le choix du modèle.
Prenons l'exemple de la prédiction d'un carnet de commandes de 40 niveaux en classification trinaire sur 500 ms :
- Avec le même XGBoost, en utilisant les données brutes, le taux de prédiction correct est de 0,45, après lissage SG, il passe à 0,54, soit une amélioration d'environ 21 %.
- En remplaçant le modèle par le plus complexe DeepLOB, le taux sur les données brutes est même plus bas (0,43). Même si DeepLOB a également subi un lissage SG (0,52), il reste inférieur à XGBoost+SG (0,54).
L'amélioration de la qualité des données dépasse de loin l'amélioration due à la complexité du modèle.
Pourquoi le filtrage SG fonctionne-t-il si bien ?
Les données brutes du carnet de commandes sont très bruyantes, les prix et les volumes d'ordres fluctuent de manière drastique à la milliseconde, et l'industrie considère généralement que cela est dû aux ajustements rapides des prix par les teneurs de marché, ce que l'on appelle le "clignotement". Le filtrage SG utilise une petite fenêtre qui glisse sur les données, à chaque position, il ajuste une courbe lissée dans la fenêtre, prenant la valeur du point central de la courbe comme résultat lissé. Contrairement à la moyenne mobile simple, il ne gomme pas les véritables points de retournement de tendance - car il ajuste la courbe pour s'adapter à la forme des données, plutôt que de prendre simplement une moyenne. Une ligne de code dans scipy peut l'appeler, une fenêtre de 21 et un polynôme de troisième degré sont les paramètres les plus stables de l'article, pouvant servir de point de départ pour vos recherches.
2. La fenêtre de décision contraint la complexité du modèle.
Il faut distinguer deux concepts :
- Le temps d'entraînement est le temps d'entraînement du modèle hors ligne (une fois)
- Le temps d'inférence est le temps que le modèle met à faire une prédiction à chaque nouvelle donnée en temps réel.
La fréquence d'inférence dépend de la conception de la stratégie, la durée de la fenêtre de décision détermine la limite supérieure de la vitesse d'inférence, et cette limite supérieure contraint la complexité du modèle.
...

Meilleurs
Classement
Favoris
