Araştırmaya Dön

ML MODEL EĞİTİMİ

Bölüm 4: Başarısız LLM'lerden Gradient Boosting Başarısına

Omega Arena • Şubat 2026 • TAMAMLANDI

94
VARLIK
10
YIL
197K
SATIR
0.566
XGBOOST AUC
Özet. Bölüm 3'te Omega Sistemi—171 elle hazırlanmış metrik—belgelendi. Burada makine öğrenmesinin aynı verilerde desenler bulup bulamayacağı araştırılıyor. LLM'ler ve pekiştirmeli öğrenme ile başarısız denemelerden sonra, gradient boosting modelleri (XGBoost, CatBoost, LightGBM) 0.50'nin üzerinde AUC skorları elde etti—rastgele şanstan daha iyi. Bu, verilerde öğrenilebilir desenlerin var olduğunu gösteriyor.

İÇİNDEKİLER

1. Soru 2. Veri Seti 3. Başarısız: Büyük Dil Modelleri 4. Başarısız: Pekiştirmeli Öğrenme 5. İşe Yarayan: Gradient Boosting 6. Sonuçları Anlamak 7. TFT: Sinir Ağı Denemesi 8. Teknik Zorluklar 9. Final Durum 10. Sırada: Rejim Tespiti 11. Ön Sonuç

1. SORU

Bölüm 3'ün Omega Sistemi elle kodlanmış sinyal agregasyon kuralları kullandı. Sonuçlar etkileyiciydi: 2021 backtestlerinde %9,868 getiri. Ancak bu kurallar piyasalar hakkında insan varsayımlarını kodluyor.

Ya makine öğrenmesinin desenleri bulmasına izin verilirse?

Hedef: aynı 171 özellik üzerinde (feature engineering ile ~16,000'e genişletilmiş) modeller eğitmek ve fiyat yönünü tahmin edip edemeyeceklerini görmek. Elle kodlanmış kural yok. Sadece veri.

2. VERİ SETİ

ParametreDeğer
Varlıklar94 kripto para
Zaman Aralığı2015 - 2025 (10 yıl)
Satır~197,000
Temel Özellikler171 (Omega Sisteminden)
Mühendislik Özellikleri~16,000
Hedef DeğişkenFiyat yönü (binary: yukarı/aşağı)
Train/Test Bölümü90/10 zaman-tabanlı (lookahead yok)

Feature engineering, 171 temel metriği rolling window'lar, lag'ler, etkileşimler ve çapraz varlık ilişkileri aracılığıyla ~16,000'e genişletti. Eğitim verimliliği için, varyansa göre en iyi 500-1000 özellik seçildi.

3. BAŞARISIZ DENEY: BÜYÜK DİL MODELLERİ

İlk yaklaşım iddialıydı: fiyatları tahmin etmek için bir Large Language Model (Qwen 3 4B) eğitmek.

Mantık sağlam görünüyordu—LLM'ler desen tanımada olağanüstü yetenekler gösterdi ve finansal veriler sonuçta sıralı bilgilerdir.

SONUÇ: TERK EDİLDİ

LLM'ler temelde dil için tasarlandı—semantik anlama sahip ayrık token'lar. Finansal zaman serileri sürekli sayısal verilerdir. Bunlar farklı mimariler gerektiren farklı alanlardır.

LLM'ler Neden Başarısız Oldu

ProblemAçıklama
Tokenizasyon uyumsuzluğuSayılar tutarsız şekilde tokenize ediliyor ("123.45" → birden fazla token)
Sayısal akıl yürütme yokLLM'ler 50.1 > 49.9'un anlamlı bir şekilde olduğunu anlamıyor
Eğitim verimliliğiDil anlayışı gerektirmeyen bir görev için milyarlarca parametre
Hallucination riskiLLM'ler makul görünen ama yanlış tahminler üretebilir
Not: LLM'ler Bölüm 6'da hâlâ kullanılacak—tahmin için değil, karar sentezi için. Claude Opus 4.5 model çıktılarını yorumlayacak ve final trading kararlarını verecek. LLM'lerin iyi olduğu şey bu.

4. BAŞARISIZ DENEY: PEKİŞTİRMELİ ÖĞRENME (PPO)

İkinci yaklaşım: trading yapmak için bir Proximal Policy Optimization (PPO) ajanı eğitmek.

Supervised learning'den (yukarı/aşağı tahmin et) farklı olarak, RL ajanları etkileşim yoluyla öğrenir. Ajan aksiyonlar alır (AL/SAT/TUT), ödüller alır (kâr/zarar) ve bir policy öğrenir.

SONUÇ: TERK EDİLDİ

40,000+ timestep eğitimden sonra, ajan tek bir aksiyona çöktü: TUT. Hiçbir şey yapmamanın kayıplardan kaçınmanın en güvenli yolu olduğunu öğrendi.

Çöküşten Önceki Eğitim Metrikleri

MetrikDeğerYorumlama
entropy_loss-0.106 → -0.155Tek aksiyona çöküyor
explained_variance0.874 → 0.272Tahmin gücünü kaybediyor
mean_reward-0.01Hafif negatif (ücretler kârı yiyor)
episode_length39,434Pozisyonları asla kapatmıyor

PPO Neden Başarısız Oldu

5. İŞE YARAYAN: GRADIENT BOOSTING

LLM ve RL başarısızlıklarından sonra, odak tabular veriler için kanıtlanmış yaklaşımlara kaydı: Gradient Boosting Decision Trees (GBDT).

Üç model seçildi: XGBoost, CatBoost ve LightGBM. Her biri biraz farklı algoritmalara sahip, ensemble çeşitliliği sağlıyor.

Model Durumu

ModelDurumHPO DenemeleriEn İyi AUCNotlar
XGBoostTAMAMLANDI500/5000.566En iyi performans
CatBoostTAMAMLANDI500/5000.530GPU-hızlandırılmış
LightGBMTAMAMLANDI500/5000.520Bellek-optimize
TFTTAMAMLANDIN/AClassification için zayıf uyum

Hiperparametre Optimizasyonu

Her model TPESampler ile Optuna kullanarak 500 deneme Bayesian optimizasyonundan geçti. Bu rastgele arama değil—optimizer umut vaat eden parametre bölgelerini keşfetmek için önceki denemelerden öğrenir.

ParametreArama Aralığı
n_estimators500 - 3000
max_depth4 - 15
learning_rate0.001 - 0.1 (log ölçek)
subsample0.5 - 1.0
colsample_bytree0.5 - 1.0
reg_alpha1e-8 - 10 (log ölçek)
reg_lambda1e-8 - 10 (log ölçek)

XGBoost En İyi Konfigürasyon

ParametreDeğer
n_estimators2,520
max_depth14
learning_rate0.084
min_child_weight10
subsample0.633
colsample_bytree0.857
gamma1.22
En İyi AUC0.566

6. SONUÇLARI ANLAMAK

AUC 0.566 Ne Anlama Geliyor?

AUC (Area Under ROC Curve) bir modelin sınıfları ne kadar iyi ayırt ettiğini ölçer:

AUC DeğeriYorumlama
0.50Rastgele şans (yazı-tura)
0.50 - 0.60Zayıf, ama rastgeleden iyi
0.60 - 0.70Orta düzey tahmin gücü
0.70 - 0.80İyi
0.80+Mükemmel (finansal veri için şüpheli)
AUC 0.566 mütevazı ama anlamlı. Model yazı-turadan daha sık doğru demek. Finansal piyasalarda, küçük avantajlar bile binlerce işlem üzerinden bileşir.

HPO vs Final Test AUC

Önemli uyarı: HPO AUC skorları validation verisinden. Gerçekten görülmemiş veriler üzerindeki final test skorları genellikle daha düşük:

ModelHPO En İyi AUCFinal Test AUCDüşüş
CatBoost0.530~0.51-0.02
LightGBM0.520~0.50-0.02
XGBoost0.566BELİRLENECEK

7. TFT: SİNİR AĞI DENEMESİ

Temporal Fusion Transformer (TFT) zaman serisi tahmini için tasarlanmış bir sinir ağı mimarisidir.

SONUÇ: TAMAMLANDI AMA ZAYIF UYUM

TFT başarıyla eğitildi, ancak regression (sürekli değerleri tahmin etme) için tasarlandı, classification (yukarı/aşağı tahmin) için değil. Fiyat büyüklüğü tahmini için tekrar ziyaret edilebilir.

8. TEKNİK ZORLUKLAR

197K satır × 16K özellik üzerinde eğitim mühendislik zorlukları sundu:

Bellek Yönetimi

Veri Tipi Sorunları

Model Kaydetme

9. FİNAL DURUM

ModelDurumSonuç
XGBoostTAMAMLANDIAUC 0.566 — En iyi performans
CatBoostTAMAMLANDIAUC 0.530
LightGBMTAMAMLANDIAUC 0.520
TFTTAMAMLANDIClassification için zayıf uyum
PPOTERK EDİLDİTUT aksiyonuna çöktü
Qwen LLMTERK EDİLDİSayısal veri için yanlış mimari

10. SIRADA: REJİM TESPİTİ (BÖLÜM 5)

Fiyat tahmin modelleri tamamlanmış olarak, sonraki aşama rejim tespiti—piyasa koşullarını Boğa, Ayı veya Yatay olarak sınıflandırmak için özel modeller.

Bu modeller fiyatları tahmin etmiyor. Bağlam sağlıyorlar. Ensemble "ayı piyasasındayız" bildiğinde, sinyalleri ağırlıklandırabilir ve risk parametrelerini ayarlayabilir.

BÖLÜM 5 İÇİN GELİŞTİRİLİYOR:

Hidden Markov Model (HMM) — 219 özellik ile denetimsiz rejim keşfi
Random Forest Classifier — 235 özellik ile denetimli sınıflandırma, hiperparametre-optimize
Bidirectional LSTM + Attention — 90 günlük diziler, çok görevli öğrenme (günlük/haftalık/aylık)
Ensemble Voting — Sağlam rejim sinyalleri için üçünü birleştir

Veri Seti: 233,507 satır × 203 özellik × 97 varlık (2014-2026)
Etiketler: %100 hindsight-doğru (YUKARI/AŞAĞI/AYNI, BOĞA/AYI/YATAY)

11. ÖN SONUÇ

LLM'lerden gradient boosting'e yolculuk, makine öğrenmesinde temel bir gerçeği yansıtır: mimariyi probleme eşleştir.

Modeller out-of-sample verilerde tutarlı >%50 doğruluk gösteriyor. Bu trading kârlarının garantisi değil, ancak öğrenilebilir desenlerin var olduğunun kanıtı. Bu desenlerin canlı piyasalarda devam edip etmeyeceği nihai testtir.

Bölüm 4 Durumu: TAMAMLANDI
Tüm gradient boosting modelleri eğitildi. XGBoost en iyi AUC'yi (0.566) elde etti. Rejim tespit modelleri (Bölüm 5) şu anda geliştiriliyor.

© 2026 Omega Arena