Yolo Vision Shenzhen
Shenzhen
Şimdi katılın
Sözlük

Odak Kaybı

Focal Loss'un nesne algılamada sınıf dengesizliğinin üstesinden nasıl geldiğini keşfedin - dengesiz veri kümelerinde doğruluğu artırmak için eğitimi zor örneklere odaklayın.

Odak Kaybı, model eğitimi sırasında aşırı sınıf dengesizliği sorununu ele almak için öncelikle bilgisayar görme görevlerinde kullanılan özel bir amaç fonksiyonudur. Özellikle, arka plan örneklerinin (negatif örnekler) sayısı ilgi konusu nesnelerin (pozitif örnekler) sayısını büyük ölçüde aştığı nesne algılama senaryolarında çok değerlidir. Her örneğe atanan cezayı dinamik olarak ölçeklendirerek, Odak Kaybı "kolay" örneklerin ağırlığını etkili bir şekilde azaltır örneklerin classify optimizasyon sürecinin classify zor olan "zor" örnekler üzerinde yoğunlaşmasını sağlar. Bu hedefli yaklaşım, çok sayıda kolay negatif örneğin eğitim sinyalini bastırmasını önler ve böylece seyrek ancak kritik nesneler üzerinde modelin doğruluğunu artırır. Nesne algılama görevlerinde, arka plan örneklerinin sayısı genellikle ilgi nesnelerinin sayısından çok daha fazladır. Bu durum, model eğitimi sırasında sınıf dengesizliği sorununa yol açar.

Sınıf Dengesizliği Sorununu Çözmek

Birçok derin öğrenme (DL) uygulamasında, özellikle tek aşamalı nesne algılayıcılarda, eğitim süreci bir görüntüdeki binlerce aday konumun değerlendirilmesini içerir. Bu konumların çoğu hiçbir nesne içermez ve arka plan olarak kolayca tanımlanır. Çapraz Entropi Kaybı gibi standart işlevler tüm yanlış sınıflandırmaları eşit şekilde ele alır. Sonuç olarak, binlerce kolay arka plan örneğinden biriken hata, birkaç zor pozitif örneğin sinyalini bastırabilir ve çoğunluk sınıfına yönelik önyargılı bir modele yol açabilir.

Odak Kaybı, genellikle gama ($\gamma$) olarak gösterilen bir odaklama parametresi ekleyerek standart kayıp hesaplamasını değiştirir. Doğru sınıfın olasılığı arttıkça (örneğin "kolay" olduğu anlamına gelir), modülasyon faktörü kayıp katkısını sıfıra yakın bir değere indirir. Tersine, yanlış sınıflandırılmış veya belirsiz örnekler ("zor" durumlar) için kayıp önemli ölçüde kalır. Bu mekanizma, optimizasyon algoritmasının, modelin zaten bildiği bilgileri doğrulamak yerine, gerçekten iyileştirme gerektiren örnekleri temel alarak model ağırlıklarını güncellemesini sağlar.

Gerçek Dünya Uygulamaları

Dengesiz veri kümelerini işleme yeteneği, Focal Loss'u güvenlik açısından kritik ve yüksek hassasiyet gerektiren alanlarda modern AI çözümlerinin temel taşı haline getirir.

  • Tıbbi Teşhis: Tıbbi görüntü analizinde, patolojileri tanımlamak genellikle "samanlıkta iğne aramak" gibi bir soruna yol açar. Örneğin, bir CT taramasında küçük lezyonları tespit ederken, görüntünün %99'unu sağlıklı doku oluşturur. Standart bir kayıp fonksiyonu, her piksel için basitçe "sağlıklı" tahmininde bulunarak yüksek doğruluk elde edebilir. Focal Loss uygulayarak, sağlık hizmetlerinde AI'da kullanılan modeller, bol miktarda bulunan sağlıklı dokuyu göz ardı edebilir ve öğrenmeyi nadir görülen, ince özelliklere sahip tümörler veya kırıklara odaklayarak, hayat kurtaran tespitlerin geri çağırma oranını önemli ölçüde artırabilir.
  • Otonom Sürüş: Otonom araçları çalıştıran sistemler, yollar, binalar ve gökyüzü arka planında detect , bisikletlileri ve enkazları detect . Arka plan kolayca öğrenilebilir, ancak küçük, uzaktaki engeller zor olabilir. Focal Loss, algılama sisteminin budetect öncelik vermesini sağlayarak, araçların görsel alanın sadece küçük bir bölümünü kaplasalar bile kritik tehlikeleri gözden kaçırmamasını sağlar. Bu, sağlam yaya algılama ve genel güvenlik için çok önemlidir.

Ultralytics ile Uygulama

Bu ultralytics kütüphane, eğitim desteklemek için kayıp fonksiyonlarının optimize edilmiş uygulamalarını içerir en son teknoloji modelleri gibi YOLO26. Üst düzey eğitim, Ultralytics Platformu, geliştiriciler özel boru hatları için belirli kayıp bileşenlerine erişebilirler.

Aşağıdaki örnek, Focal Loss'u nasıl başlatacağınızı ve tahmin puanları ile hedef etiketleri arasındaki hatayı ultralytics yardımcı paket.

import torch
from ultralytics.utils.loss import FocalLoss

# Initialize Focal Loss with a standard gamma value
# Gamma=1.5 aggressively down-weights easy examples
criterion = FocalLoss(gamma=1.5)

# Example: Predictions (logits) and binary Ground Truth labels
predictions = torch.tensor([[0.8], [-1.5], [0.1]], requires_grad=True)
targets = torch.tensor([[1.0], [0.0], [1.0]])

# Calculate the loss
loss = criterion(predictions, targets)
print(f"Computed Focal Loss: {loss.item():.4f}")

İlgili Kavramlardan Ayrım

Odak Kaybının hata ölçümünün daha geniş kapsamına nasıl uyduğunu anlamak, doğru eğitim stratejisini seçmek için yararlıdır.

  • Odak Kaybı ve Çapraz Entropi Kaybı: Çapraz Entropi Kaybı, logaritmik hataya dayalı tahminleri cezalandıran sınıflandırma için temel metriktir. Odak Kaybı, kesinlikle Çapraz Entropinin bir uzantısıdır. Odaklama parametresi sıfıra ayarlanırsa, Odak Kaybı matematiksel olarak standart Çapraz Entropiye geri döner. Temel fark, Odak Kaybının kolay negatifleri daha az ağırlıklandırma yeteneğidir.
  • Odak Kaybı ve IoU : Odak Kaybı sınıflandırma (bir nesnenin ne olduğunu belirleme) için tasarlanmışken , Kesişim Üzerine Birleşim (IoU) yerelleştirme (bir nesnenin nerede olduğunu belirleme) için kullanılır. YOLO11 gibi modern dedektörler YOLO11 ve YOLO26 gibi modern dedektörler, sınıf olasılıkları için Odak Kaybı (veya Varifocal Loss gibi varyantları) ile sınırlayıcı kutu regresyonu için IoU kaybı birleştiren bileşik bir kayıp fonksiyonu kullanır. .
  • Odak Kaybı ve OHEM: Çevrimiçi Zor Örnek Madenciliği (OHEM), kolay örnekleri tamamen atan ve bir gruptaki en zor örnekler üzerinde eğitim yapan eski bir stratejidir. Odak Kaybı, sert bir kesme yerine sürekli bir ölçeklendirme faktörü kullandığı ve tüm eğitim verilerinden daha yumuşak ve daha istikrarlı bir eğitim sinyali sağladığı için günümüzde genellikle tercih edilmektedir.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın