Focal Loss'un derin öğrenmede sınıf dengesizliğini nasıl çözdüğünü keşfedin. Zor örnekler üzerinde odaklanmak ve model doğruluğunu artırmak için Ultralytics ile bunu nasıl uygulayacağınızı öğrenin.
Focal Loss, derin öğrenmede ciddi sınıf dengesizliği sorununu ele almak için kullanılan özel bir amaç fonksiyonudur. Nesne algılama gibi birçok bilgisayar görme görevinde, arka plan örneklerinin sayısı (negatif örnekler) ilgi konusu nesnelerin sayısını (pozitif örnekler) önemli ölçüde aşmaktadır. Yaygın olarak kullanılan Çapraz Entropi Kaybı gibi standart yöntemler, tüm hataları eşit şekilde ele alır ve bu da genellikle modelin,classify verilerinin hacmi nedeniyle aşırı yüklenmesine neden olur. Odak Kaybı, standart kayıp hesaplamasını değiştirerek bu kolay örneklerin ağırlığını azaltır ve optimizasyon algoritmasının öğrenme kapasitesini, model performansı için çok önemli olan nadir veclassify olan "zor" örnekler üzerinde odaklanmaya zorlar.
Focal Loss'un temel yeniliği, modelin güvenilirliğine göre her bir örneğe atanan cezayı dinamik olarak ölçeklendirme yeteneğinde yatmaktadır. Tipik bir denetimli öğrenme senaryosunda, bir dedektör bir görüntüdeki binlerce aday konumu değerlendirebilir. Bu konumların çoğu nesne içermediğinden, standart bir kayıp fonksiyonu bu kolay negatiflerden birçok küçük hata sinyali biriktirir ve bu da az sayıdaki pozitif örneklerden gelen değerli sinyali bastırabilir.
Focal Loss, doğru sınıfa olan güven arttıkça kayıp katkısını azaltan bir modülasyon faktörü getirir. Bu, bir modelin bir arka plan yamasının gerçekten arka plan olduğundan %99 emin olması durumunda, o yamanın kaybının sıfıra yakın bir değere indirgenmesi anlamına gelir. Sonuç olarak, model ağırlıkları öncelikle yanlış sınıflandırılmış örnekler veya modelin emin olmadığı örnekler temelinde güncellenir. Bu hedefli yaklaşım, Bu hedefli yaklaşım, YOLO26 gibi yüksek performanslı tek aşamalı nesne algılayıcılarını eğitmek için gerekli olup, karmaşık örnekleme aşamalarına gerek kalmadan yüksek doğruluk elde etmelerini sağlar.
Dengesiz eğitim verilerini işlemek, güvenlik ve hassasiyetin öncelikli olduğu ortamlarda sağlam AI sistemleri kurmak için çok önemlidir.
Bu ultralytics kütüphanesi, en son teknolojiye sahip modelleri desteklemek için gelişmiş kayıp fonksiyonlarının optimize edilmiş uygulamalarını içerir.
En son teknolojiye sahip modeller. Ultralytics Platformu otomatik olarak
bu hiperparametreleri en uygun eğitim için yapılandırır, geliştiriciler ayrıca özel araştırmalar için bu bileşenlere doğrudan erişebilirler
.
Aşağıdaki örnek, ultralytics yardımcı paket ve
bir dizi tahmin için hatayı hesaplayın.
import torch
from ultralytics.utils.loss import FocalLoss
# Initialize Focal Loss.
# The 'gamma' parameter controls the focusing strength (higher = more focus on hard examples).
criterion = FocalLoss(gamma=1.5)
# Example: Model predictions (logits) and binary Ground Truth labels
# requires_grad=True simulates model outputs that need backpropagation
predictions = torch.tensor([[0.8], [-1.5], [0.1]], requires_grad=True)
targets = torch.tensor([[1.0], [0.0], [1.0]])
# Calculate the loss value
loss = criterion(predictions, targets)
print(f"Computed Focal Loss: {loss.item():.4f}")
Focal Loss'un hata ölçümünün daha geniş manzarasına nerede uyduğunu anlamak, belirli bilgisayar görme görevleri için doğru stratejiyi seçmeye yardımcı olur. .