Sözlük

LoRA (Düşük Sıralı Adaptasyon)

LoRA'nın YOLO gibi büyük yapay zeka modellerine nasıl verimli bir şekilde ince ayar yaptığını, maliyetleri düşürdüğünü ve minimum kaynakla uç dağıtımı mümkün kıldığını keşfedin.

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

LoRA (Düşük Sıralı Adaptasyon), doğal dil işleme (NLP ) veya bilgisayarla görme (CV) için kullanılanlar gibi önceden eğitilmiş büyük makine öğrenimi (ML) modellerini, tüm modeli yeniden eğitmeden belirli görevlere veya veri kümelerine uyarlamak için kullanılan etkili bir tekniktir. Büyük modellere ince ayar yapmakla ilişkili hesaplama maliyetini ve bellek gereksinimlerini önemli ölçüde azaltarak gelişmiş yapay zekayı daha erişilebilir hale getirir. LoRA, modelleri parametrelerinde minimum değişiklikle uyarlamaya odaklanan Parametre Verimli İnce Ayar (PEFT) yöntemlerinin şemsiyesi altına girer.

LoRA Nasıl Çalışır?

Geleneksel ince ayar, yeni veriler kullanılarak önceden eğitilmiş bir modelin tüm parametrelerinin (veya model ağırlıklarının) güncellenmesini içerir. Birçok modern LLM veya büyük görüntü modelleri gibi milyarlarca parametreye sahip modeller için bu süreç, özellikle GPU hafıza ve zaman. LoRA, bir modeli uyarlamak için gereken değişikliklerin genellikle daha düşük boyutlu bir uzayda bulunduğu, yani her bir ağırlığın değiştirilmesini gerektirmediği, araştırmalarla desteklenen ilkeye göre çalışır.

LoRA, tüm orijinal ağırlıkları değiştirmek yerine bunları dondurur ve daha küçük, eğitilebilir "düşük rütbeli" matrisleri model mimarisinin belirli katmanlarına, genellikle Transformatör bloklarına (birçok büyük modelde ortak bir bileşen, Attention Is All You Need makalesinde daha ayrıntılı olarak açıklanmıştır) enjekte eder. İnce ayar işlemi sırasında yalnızca bu yeni eklenen matrisler (genellikle adaptör olarak adlandırılır) güncellenir. Bu, eğitilebilir parametrelerin sayısını genellikle büyüklük sırasına göre (örneğin, milyarlarca yerine milyonlarca) önemli ölçüde azaltırken, yine de birçok durumda tam ince ayar ile karşılaştırılabilir performans elde eder. Orijinal LoRA araştırma makalesi, metodoloji ve etkinliği hakkında daha fazla teknik ayrıntı sunmaktadır. Bu yaklaşım, ince ayar sürecini önemli ölçüde daha hızlı ve daha az bellek yoğun hale getirmektedir.

Uygunluk ve Faydalar

LoRA'nın birincil avantajı verimliliğidir ve birkaç önemli faydaya yol açar:

  • Azaltılmış Hesaplama Maliyeti: Tam ince ayara kıyasla önemli ölçüde daha az GPU belleği ve hesaplama gücü gerektirir, bu da büyük modellerin daha az güçlü donanımlara uyarlanmasını mümkün kılar.
  • Daha Küçük Depolama Alanı: Orijinal model ağırlıkları dondurulduğundan, her bir özel görev için yalnızca küçük LoRA adaptörlerinin kaydedilmesi gerekir. Bu, her görev için ince ayarlı modelin tam bir kopyasını depolamaktan çok daha verimlidir.
  • Daha Hızlı Görev Değiştirme: Farklı LoRA adaptörlerinin yüklenmesi, tamamen yeni büyük modeller yüklemeden görevler arasında hızlı geçiş sağlar.
  • Karşılaştırılabilir Performans: Çok daha az parametreyi eğitmesine rağmen, LoRA genellikle belirli aşağı akış görevlerinde tam ince ayar yoluyla elde edilenlere benzer doğruluk seviyelerine ulaşır.
  • Uç Dağıtımı Etkinleştirme: Azaltılmış kaynak gereksinimleri, hesaplama gücü ve belleğin sınırlı olduğu uç bilişim senaryoları için modellerin uyarlanmasını kolaylaştırarak akıllı telefonlar veya gömülü sistemler gibi cihazlara güçlü yapay zeka yetenekleri kazandırır( Intel tarafından açıklanan Edge AI).
  • Demokratikleşme: GPT-4 gibi son teknoloji modelleri özelleştirmek isteyen araştırmacılar ve geliştiriciler için giriş engelini azaltır veya Ultralytics YOLO modeller.

LoRA Uygulamaları

LoRA'nın verimliliği onu çeşitli alanlarda değerli kılmaktadır:

  1. Büyük Dil Modellerini (LLM'ler) uyarlama: Bu en yaygın kullanımlardan biridir. Geliştiriciler, önceden eğitilmiş büyük bir LLM (örneğin Hugging Face) ve LoRA'yı özel sohbet robotları, alana özgü soru yanıtlama sistemleri veya belirli belge türleri için metin özetlemeyi iyileştirme gibi belirli uygulamalar için özelleştirmek üzere kullanın. Hugging Face'in PEFT kütüphan esi gibi kütüphaneler LoRA'nın kolay uygulanmasını sağlar.
  2. Bilgisayarla Görme Modellerini Özelleştirme: LoRA, nesne algılama, görüntü segmentasyonu veya poz tahmini gibi görevler için büyük bilgisayarla görme modellerine uygulanabilir. Örneğin, COCO gibi büyük bir veri kümesi üzerinde önceden eğitilmiş bir Ultralytics YOLO modeli, vahşi yaşamın korunması için nesli tükenmekte olan türler veya üretim kalite kontrolündeki belirli kusurlar gibi niş bir alandaki belirli nesne türlerini tespit etmek için LoRA kullanılarak verimli bir şekilde ince ayarlanabilir. Ultralytics HUB gibi platformlar, bu tür uyarlanmış modellerin eğitimini ve dağıtımını kolaylaştırabilir.

LoRA ve İlgili Kavramlar

LoRA'yı diğer model uyarlama tekniklerinden ayırmak faydalı olacaktır:

  • Tam İnce Ayar: Bu yöntem, yeni bir veri kümesi üzerinde önceden eğitilmiş bir modelin tüm ağırlıklarını günceller. Genellikle etkili olmakla birlikte, uyarlanan her model için önemli hesaplama kaynakları ve depolama alanı gerektirir. Buna karşın LoRA, orijinal ağırlıkları dondurur ve yalnızca küçük, enjekte edilmiş adaptör matrislerini eğitir. İnce ayar sözlüğü girişimizde ve NVIDIA'nın ince ayar genel bakışında daha fazla ayrıntı bulabilirsiniz.
  • İpucu Ayarlama: Bu teknik model ağırlıklarını tamamen dondurur ve bunun yerine belirli görevler için modelin davranışını yönlendirmek üzere sürekli "yumuşak istemler" (girdi katıştırmalarına eklenen vektörler) öğrenir. LoRA'nın aksine, herhangi bir model ağırlığını değiştirmez, yalnızca girdi temsilini uyarlamaya odaklanır. İpucu ayarlama ve ipucu mühendisliği hakkında daha fazla bilgi edinin.
  • Diğer PEFT Yöntemleri: LoRA, daha geniş bir alan olan Parametre Verimli İnce Ayar (PEFT) içinde sadece bir tekniktir. Diğer yöntemler arasında Adapter Tuning (benzer ancak biraz farklı adaptör yapıları ile), Prefix Tuning ve IA³ bulunur ve her biri parametre verimliliği ve performansında farklı ödünleşimler sunar.

Özetle LoRA, hem NLP hem de bilgisayarla görme alanında çok çeşitli özel görevler için önceden eğitilmiş büyük temel modelleri özelleştirmek için güçlü ve kaynak açısından verimli bir yol sağlayarak gelişmiş yapay zekayı daha pratik ve erişilebilir hale getirir.

Tümünü okuyun