Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
ML araştırmacıları yeni bir topluluk tekniği geliştirdi.
XGBoost, CatBoost ve LightGBM'den daha iyi performans gösteriyor.
Yıllardır, gradyan yükseltme tablo olarak öğrenme için başvurulan yöntem olmuştur. Artık değil.
TabM, parametre etkin bir topluluktur ve size şunları sağlar:
- Bir MLP'nin hızı
- GBDT'nin doğruluğu
İşte nasıl çalışıyor:
Tablolu makine öğreniminde ise her zaman hız ve doğruluk arasında seçim yapmak zorunda kaldık. MLP'ler hızlıdır ama düşük performans gösterir. Derin topluluklar doğrudur ama şişiricidir. Transformatörler güçlüdür ama çoğu masa için pratik değildir.
TabM bunu basit bir içgörü ile çözüyor:
(aşağıdaki görsele bakınız, ileriye bakabilirsiniz)
32 ayrı MLP eğitmek yerine, hafif bir adaptörle ortak bir model kullanıyor. Bu küçük ayarlama, birden fazla ağı eğitme maliyeti olmadan topluluk yapmanın avantajlarını sağlar.
Sonuçlar:
15+ model ve 46 veri setine karşı TabM ortalama olarak 1.7 sırada yer aldı—XGBoost, CatBoost ve LightGBM'in önünde. FT Transformer ve SAINT gibi karmaşık modeller, eğitmesi daha pahalı olmalarına rağmen çok daha düşük sıralarda yer aldı.
Bir sonraki tweet'te araştırma makalesini ve kıyaslamaları paylaştım.
Araştırma makalesi →

33,78K
En İyiler
Sıralama
Takip Listesi

