Hiyerarşik Muhakeme Modeli: 27M Parametre ile 100x Daha Hızlı Muhakeme
Güncellenme 6 Aralık 2025
Hiyerarşik Muhakeme Modeli beyinden ilham alan yapı görselleştirmesi
Yapay zeka trendi uzun süredir “daha büyük, daha iyidir” anlayışındaydı. Ancak, verimli, muhakeme odaklı uygulamalar oluşturmaya odaklanan geliştiriciler için Hiyerarşik Muhakeme Modeli (HRM) önemli bir mimari değişiklik sunuyor. Bu beyinden ilham alan tekrarlayan yapı, minimum kaynak kullanarak karmaşık algoritmik görevlerde olağanüstü performans elde ediyor ve ham kuvvet ölçeklendirme paradigmasını zorluyor.
Ölçeklenebilir yapay zeka ajan sistemlerini veya çoklu ajan çerçevelerini karşılaştırıyorsanız, HRM temelde farklı bir yaklaşım sunar: parametre sayısından çok mimari yeniliğe odaklanan bir yaklaşım.
→ HRM GitHub DeposuHRM Nedir?
Sapient Intelligence tarafından önerilen Hiyerarşik Muhakeme Modeli (HRM), Standart Büyük Dil Modellerinin (LLM’lerin) temel hesaplama sınırlamasını aşmak için tasarlanmıştır: sığ hesaplama derinliği. LLM’ler doğal dil üretmede mükemmeldir ancak karmaşık algoritmik muhakeme, kasıtlı planlama veya sembolik manipülasyon gerektiren problemlerle mücadele eder.
Geleneksel LLM’ler genellikle Düşünce Zinciri (CoT) tetiklemesine güvenir, bu da muhakemeyi yavaş, belirteç düzeyinde dil adımlarına dışsallaştırır. HRM bu kırılgan yaklaşımı örtük muhakeme ile değiştirir ve modelin iç gizli durum uzayında yoğun, çok adımlı hesaplamaları sessizce gerçekleştirir.
HRM, karmaşık ve uzun muhakeme izleri gerektiren problemleri çözmek için tasarlanmıştır. Karmaşık Sudoku bulmacaları ve büyük 30x30 labirentlerde optimal yol bulma gibi kriterlerde neredeyse mükemmel performans elde eder; bu görevlerde en son CoT modelleri tamamen başarısız olur.
Çekirdek Mimarisi: Planlayıcı ve Yürütücü
HRM, insan beyninin hiyerarşik ve çok zaman ölçekli işleyişinden ilham alan yeni bir tekrarlayan mimaridir. Farklı hızlarda çalışan birbirine bağımlı iki tekrarlayan modülden oluşur:
- Yüksek Düzeyli Modül ($f_H$): Planlayıcı
- Yavaş, soyut planlama ve global stratejik rehberlikten sorumludur.
- Düşük Düzeyli Modül ($f_L$): Yürütücü
- Hızlı, detaylı hesaplamaları ve ince taneli muhakeme adımlarını yönetir.
Bu ayrıştırma hiyerarşik yakınsama sağar: düşük düzeyli modül kısa bir döngü içinde yerel bir çözüme yakınsar, bu da yüksek düzeyli modülü bilgilendirir, soyut stratejisini günceller ve düşük düzeyli modülü bir sonraki faz için sıfırlar. Bu iç içe hesaplama HRM’ye önemli bir hesaplama derinliği kazandırır.
HRM Geliştiricilere Nasıl Fayda Sağlar?
Özel yapay zeka uygulamaları oluşturan, özellikle verinin az olduğu veya hesaplama kaynaklarının sınırlı olduğu alanlarda çalışan geliştiriciler için HRM kritik avantajlar sunar:
- Aşırı Verimlilik: HRM kriterlerini sadece 27 milyon parametre ve görev başına yaklaşık 1.000 eğitim örneği kullanarak elde eder; ön eğitim veya CoT verisi gerektirmez.
- Hız ve Düşük Gecikme: Muhakeme, seri belirteç üretimi yerine paralel dinamikler yoluyla dahili olarak gerçekleştiği için, HRM geleneksel CoT yöntemlerine kıyasla muhakeme gecikmesinde potansiyel 100x hızlanma destekler.
- Sabit Bellek Ayak İzi: HRM, Zaman Boyunca Geri Yayılım (BPTT)‘yi kullanmak yerine bir adım gradyan yaklaşımı (Deep Equilibrium Models veya DEQ’lerden ilham alan) kullanarak bellek yoğunluğunu azaltır. Bu, modelin etkili hesaplama derinliğinden bağımsız olarak $O(1)$‘lik sabit bir bellek ayak izi koruduğu anlamına gelir.
- Kenar Yapay Zekası Hazırlığı: Küçük model boyutu ve minimum operasyonel gereksinimler—standart CPU’lar üzerinde 200MB’tan az RAM ile çalıştığı bildiriliyor—HRM’yi uygun maliyetli Kenar Yapay Zekası dağıtımına ideal kılar. Bu verimlilik, merkeziyetsiz, düşük maliyetli hesaplama çözümlerini arayan projelerle iyi bir uyum içindedir.
- Uyarlanabilir Hesaplama: HRM, Q-learning aracılığıyla eğitilen Uyarlanabilir Hesaplama Zamanını (ACT) kullanarak görevin karmaşıklığına göre muhakeme adımlarını dinamik olarak ayarlar ve verimli kaynak tahsisi sağlar.
Bu verimlilik, HRM’yi, düşük gecikme ve küçük ayak izlerinin zorunlu olduğu, gerçek zamanlı robotik kontrol veya hızlı teşhis gibi özel uygulamalar için özellikle umut verici kılar.
Başlangıç: HRM Hızlı Demo
Resmi Hiyerarşik Muhakeme Modeli deposu açık kaynaklıdır. Denemeye başlamak için bir Sudoku çözücü eğitmek üzere bu hızlı rehberi takip edebilirsiniz.
→ GitHub’da HRM’yi Görüntüle1. Ön Gereksinimler
PyTorch ve CUDA’nın yüklü olduğu bir sisteme sahip olduğunuzdan emin olun. Deney takibi için Weights & Biases (W&B) hesabınıza da giriş yapmış olmalısınız:
wandb login
2. Python Bağımlılıklarını Yükle
Depo, requirements.txt dosyasında listelenen belirli Python paketlerini gerektirir.
pip install -r requirements.txt
3. Sudoku Çözücü Demo’yu Çalıştır
Bu, sadece küçük, artırılmış bir veri seti kullanarak bir ustalık seviyesinde Sudoku Yapay Zekası eğitir.
Adım 3a: Veri Setini İndirin ve Oluşturun
python dataset/build_sudoku_dataset.py --output-dir data/sudoku-extreme-1k-aug-1000 --subsample-size 1000 --num-aug 1000
Adım 3b: Eğitimi Başlat (Tek GPU)
OMP_NUM_THREADS=8 python pretrain.py data_path=data/sudoku-extreme-1k-aug-1000 epochs=20000 eval_interval=2000 global_batch_size=384 lr=7e-5 puzzle_emb_lr=7e-5 weight_decay=1.0 puzzle_emb_weight_decay=1.0
Bu eğitimin bir dizüstü bilgisayar RTX 4070 GPU üzerinde yaklaşık 10 saat sürmesi beklenmektedir.
Sonuç
HRM, beyinden ilham alan hiyerarşik işleme odaklı mimari yeniliğin, yalnızca büyük parametre sayılarına güvenmekle karşılaştırıldığında daha üstün algoritmik muhakeme yetenekleri sağlayabileceğini gösteriyor. Zeka verimliliği, düşük gecikme ve derin algoritmik kapasite arayan geliştiriciler için Hiyerarşik Muhakeme Modeli, evrensel hesaplamaya doğru dönüştürücü bir ilerlemeyi temsil ediyor.
İster karmaşık çoklu ajan sistemleri oluşturuyor olun, ister kenar dağıtım için optimize ediyor olun, HRM’nin örtük muhakeme yaklaşımı geleneksel ölçeklendirme stratejilerine çekici bir alternatif sunar.
Daha Fazla Kaynak
→ HRM GitHub Deposu