Ultralytics gibi büyük modelleri optimize etmek için Parametre Verimli İnce Ayar (PEFT) özelliğini keşfedin. Hesaplama maliyetlerini azaltmayı ve GPU'larda SOTA sonuçları elde etmeyi öğrenin.
Parametre Verimli İnce Ayar (PEFT), makine öğreniminde (ML) hesaplama maliyetlerini en aza indirirken önceden eğitilmiş büyük modellerin belirli görevlere göre özelleştirilmesini sağlayan sofistike bir optimizasyon stratejisidir. Modern temel modeller milyarlarca parametreyi kapsayacak şekilde büyüdükçe, ağdaki her ağırlığı güncelleyen geleneksel eğitim yöntemleri donanım ve enerji açısından aşırı pahalı hale gelmiştir. PEFT, önceden eğitilmiş model ağırlıklarının büyük çoğunluğunu dondurarak ve yalnızca küçük bir parametre alt kümesini güncelleyerek veya hafif adaptör katmanları ekleyerek bu sorunu çözmektedir. Bu yaklaşım, giriş engelini azaltarak geliştiricilerin endüstriyel ölçekli veri merkezlerine ihtiyaç duymadan tüketici sınıfı GPU'larda son teknoloji sonuçlar elde etmelerini sağlamaktadır.
PEFT'nin temel prensibi, bir modelin ImageNet gibi büyük kamu veri kümelerinden öğrenilen özellik temsillerini kullanan transfer öğrenimine dayanır. ImageNet gibi büyük kamu veri kümelerinden öğrenilen özellik temsillerini kullanarak yeni problemleri çözer. Standart bir iş akışında, bir modeli uyarlamak "tam ince ayar" gerektirebilir; bu durumda geri yayılım, sinir ağındaki her parametreyi ayarlar .
LoRA (Düşük Sıralı Uyarlama) gibi PEFT teknikleri farklı bir yol izler. Modelin ağır "backbone" statik tutarak genel bilgisini korur ve küçük, eğitilebilir matrisleri belirli katmanlara enjekte eder. Bu, modelin yeni bilgiler öğrenirken orijinal yeteneklerini kaybetmesi olayını önler. Eğitilebilir parametrelerin sayısını %99'a kadar azaltan PEFT, depolama gereksinimlerini önemli ölçüde azaltır ve gerçek zamanlı çıkarım sırasında tek bir temel modelde birden fazla göreve özel adaptörün değiştirilmesine olanak tanır.
PEFT, uç bilgi işlem ve veri gizliliğinin çok önemli olduğu sektörlerde özellikle değerlidir.
Ultralytics , parametre verimliliği genellikle bir ağın ilk katmanlarını "dondurarak" elde edilir. Bu, sağlam özellik çıkarıcıların değişmeden kalmasını sağlarken, yalnızca baş veya sonraki katmanların yeni sınıflara uyum sağlamasını sağlar. Bu, nesne algılama için PEFT ilkelerinin pratik bir uygulamasıdır. .
Aşağıdaki örnek, hesaplama kaynaklarını korumak backbone ilk 10 katmanını dondurarak YOLO26 modelini nasıl eğitebileceğinizi göstermektedir: :
from ultralytics import YOLO
# Load the YOLO26 model (latest stable version)
model = YOLO("yolo26n.pt")
# Train on a custom dataset with the 'freeze' argument
# freeze=10 keeps the first 10 layers static, updating only deeper layers
results = model.train(data="coco8.yaml", epochs=5, freeze=10)
Bu süreci ölçeklendirmek isteyen ekipler için Ultralytics , veri kümelerini yönetmek, açıklamaları otomatikleştirmek ve bu verimli eğitim işlemlerini buluttan izlemek için birleşik bir arayüz sunar.
Doğru model uyarlama stratejisini seçmek için, PEFT'yi benzer terimlerden ayırmak yararlıdır:
Yüksek performanslı yapay zekaya erişimi demokratikleştiren PEFT, geliştiricilerin süper bilgisayar altyapısına ihtiyaç duymadan otonom araçlar ve akıllı üretim için özel araçlar geliştirmelerine olanak tanır.