ML 研究人員剛剛建立了一種新的集成技術。 它的表現超越了 XGBoost、CatBoost 和 LightGBM。 多年來,梯度提升一直是表格學習的首選。但現在不再是了。 TabM 是一種參數高效的集成方法,為您提供: - MLP 的速度 - GBDT 的準確性 它的工作原理如下: 在表格機器學習中,我們一直必須在速度和準確性之間做出選擇。MLP 速度快但表現不佳。深度集成準確但臃腫。變壓器強大但對大多數表格來說不切實際。 TabM 通過一個簡單的見解解決了這個問題: (請參考下面的圖片,隨著閱讀繼續) 它不是訓練 32 個獨立的 MLP,而是使用一個共享模型和一個輕量級的適配器。這個小調整讓您在不需要訓練多個網絡的情況下,享受到集成的好處。 結果: 在 15 多個模型和 46 個數據集上,TabM 平均排名 1.7,超越了 XGBoost、CatBoost 和 LightGBM。像 FT Transformer 和 SAINT 這樣的複雜模型儘管訓練成本更高,但排名卻低得多。 我在下一條推文中分享了研究論文和基準。
研究論文 →
13.6K