Discover how LoRA (Low-Rank Adaptation) efficiently fine-tunes large AI models. Explore its use in [YOLO26](https://docs.ultralytics.com/models/yolo26/) for specialized object detection and more.
LoRA veya Düşük Sıralı Uyarlama, makine öğrenimi (ML) alanında, önceden eğitilmiş büyük modelleri verimli bir şekilde ince ayarlamak için tasarlanmış çığır açan bir tekniktir. Modern temel modeller milyarlarca parametreyi kapsayacak şekilde büyüdükçe, belirli görevler için bunları yeniden eğitmenin hesaplama maliyeti birçok geliştirici için engelleyici hale gelmiştir. LoRA, orijinal model ağırlıklarını dondurarak ve daha küçük, eğitilebilir sıralama ayrıştırma matrislerini mimariye enjekte ederek bu sorunu çözmektedir. Bu yöntem, eğitilebilir parametrelerin sayısını 10.000 kata kadar azaltarak bellek gereksinimlerini önemli ölçüde düşürür ve mühendislerin tek bir GPU Grafik İşlem Birimi) gibi standart tüketici donanımında güçlü ağları özelleştirmelerine olanak tanır.
LoRA'nın temel yeniliği, model güncellemelerine yaklaşımında yatmaktadır. Geleneksel ince ayarlamada, optimizasyon süreci, geri yayılım sırasında sinir ağındaki her bir ağırlığı ayarlamalıdır. Bu tam parametre ayarlaması, tüm model için optimizasyon durumlarının depolanmasını gerektirir ve bu da büyük miktarda VRAM tüketir.
LoRA, adaptasyon sırasında ağırlıklardaki değişikliklerin "düşük sıralamaya" sahip olduğu hipoteziyle çalışır, yani temel bilgiler önemli ölçüde daha az boyutla temsil edilebilir. Küçük matris çiftlerini modelin katmanlarına ekleyerek (genellikle Transformer mimarilerinin dikkat mekanizması içinde), LoRA yalnızca bu eklenen adaptörleri optimize ederken ana model statik kalır. Bu modülerlik, küçük adaptör dosyalarını basitçe değiştirerek, sanatsal stilleri veya dilleri değiştirmek gibi farklı görevler arasında hızlı geçiş yapılmasına olanak tanır. Bu kavram, orijinal Microsoft makalesinde incelenmiştir.
Güçlü modelleri minimum kaynakla uyarlama yeteneği, çeşitli yapay zeka (AI) sektörlerinde benimsenmesini sağlamıştır.
Matematiksel uygulama matris cebirini içerse de, modern yazılım çerçeveleri bu karmaşıklıkları soyutlaştırır.
Aşağıdaki Python snippet,
ultralytics paket. YOLO26 gibi verimli modeller, yeni verilerden hızlı bir şekilde öğrenmek için verimli adaptasyon ilkelerini paylaşan optimizasyon stratejileri kullanır.
from ultralytics import YOLO
# Load the YOLO26 model (highly efficient for edge deployment)
model = YOLO("yolo26n.pt")
# Train the model on a specific dataset
# Modern training pipelines optimize updates to converge quickly
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)
Uygun iş akışını seçmek için, LoRA'yı diğer uyarlama stratejilerinden ayırmak önemlidir:
Yüksek performanslı model ayarlamasına erişimi demokratikleştiren LoRA, geliştiricilere, teknoloji devlerinin devasa altyapılarına ihtiyaç duymadan, otonom araç algılamadan kişiselleştirilmiş sohbet robotlarına kadar özel çözümler oluşturma olanağı sunar. Bu veri kümelerini ve eğitim süreçlerini verimli bir şekilde yönetmek isteyen ekipler için Ultralytics , bu uyarlanmış modelleri açıklama, eğitme ve dağıtma için kapsamlı bir ortam sunar.
