اكتشف كيف تعالج Focal Loss اختلال التوازن الفئوي في اكتشاف الكائنات - تركيز التدريب على الأمثلة الصعبة لتحسين الدقة في مجموعات البيانات غير المتوازنة.
الخسارة البؤرية هي دالة هدف متخصصة مصممة لمعالجة مشكلة عدم التوازن الفئوي الشديد في التعلم الآلي، خاصةً في مجال الرؤية الحاسوبية. في العديد من سيناريوهات اكتشاف الأجسام، يتجاوز عدد أمثلة أمثلة الخلفية (السلبيات) يتجاوز بكثير عدد الكائنات ذات الأهمية (الإيجابيات). يمكن أن تصبح دوال الخسارة القياسية أن تطغى على الحجم الهائل لأمثلة الخلفية classify التصنيف هذه، مما يعيق قدرة النموذج على على تعلّم الأمثلة الإيجابية الأكثر صعوبة. تخفف الخسارة البؤرية من هذا الأمر من خلال توسيع نطاق الخسارة ديناميكيًا بناءً على الثقة في التنبؤ، مما يقلل بشكل فعال من الأمثلة السهلة ويجبر النموذج على تركيز جهود التدريب جهوده التدريبية على الأمثلة السلبية الصعبة والأشياء التي أسيء تصنيفها.
يتمثل الدافع الأساسي وراء فقدان البؤرة في تحسين أداء كاشفات الأجسام ذات المرحلة الواحدة، مثل الإصدارات القديمة من الإصدارات المبكرة من RetinaNet والبنى الحديثة مثل Ultralytics YOLO11. في هذه الأنظمة، يقوم الكاشف بمسح صورة ويولِّد آلاف المواقع المرشحة. نظرًا لأن معظم الصورة عادةً ما تكون الخلفية في الصورة، فإن نسبة الخلفية إلى الكائن غالبًا ما تكون 1000:1 أو أعلى.
وبدون تدخل، يمكن أن يهيمن التأثير التراكمي للأخطاء الصغيرة الناتجة عن العدد الهائل من عينات الخلفية تهيمن على تحديثات التدرج أثناء الترحيل العكسي. هذا يجعل خوارزمية خوارزمية التحسين إلى إعطاء الأولوية ببساطة تصنيف كل شيء كخلفية لتقليل الخطأ الكلي، بدلًا من تعلم الميزات الدقيقة للأجسام الأشياء الفعلية. يعيد تشكيل منحنى الخسارة البؤري منحنى الخسارة القياسي لتقليل العقوبة للأمثلة التي يكون النموذج بالفعل واثقًا منها، وبالتالي توجيه أوزان النموذج للتكيف مع الحالات الصعبة.
الخسارة البؤرية هي امتداد لمعيار خسارة الانتروبيا المتقاطعة المستخدمة في التصنيف الثنائي. وهو يُدخل عامل تعديل يؤدي إلى تضاؤل مساهمة الخسارة مع زيادة الثقة في الفئة الصحيحة. عندما يصادف النموذج مثالاً "سهلاً" - مثل رقعة صافية من السماء يحددها بشكل صحيح على أنها خلفية باحتمالية عالية - يدفع عامل التحوير الخسارة إلى الاقتراب من الصفر. على العكس، بالنسبة للأمثلة "الصعبة" حيث يكون تنبؤ النموذج غير صحيح أو غير مؤكد، تظل الخسارة كبيرة.
يتم التحكم في هذا السلوك من خلال معلمة تركيز، غالبًا ما يُشار إليها باسم جاما. من خلال ضبط هذا المتغير، يمكن لعلماء البيانات أن يضبطوا مدى قوة دالة الخسارة في تخفيض وزن الأمثلة المصنفة جيدًا. هذا يسمح بتدريب أكثر استقرارًا التدريب على بيانات تدريب غير متوازنة إلى حد كبير، مما يؤدي إلى إلى دقة واستدعاء أعلى للفئات النادرة.
إن القدرة على التعامل مع عدم التوازن تجعل من فقدان البؤرة أمرًا ضروريًا في البيئات الحرجة للسلامة والبيئات عالية الدقة.
إن ultralytics مكتبة توفر تطبيقًا قويًا للخسارة البؤرية التي يمكن دمجها بسهولة في
خطوط أنابيب التدريب المخصصة. يوضِّح المثال التالي كيفية تهيئة دالة الخسارة وحساب الخطأ
الخطأ بين لوغاريتمات التنبؤ وتسميات الحقيقة الأرضية.
import torch
from ultralytics.utils.loss import FocalLoss
# Initialize Focal Loss with a gamma of 1.5
criterion = FocalLoss(gamma=1.5)
# Example: Prediction logits (before activation) and Ground Truth labels (0 or 1)
preds = torch.tensor([[0.1], [2.5], [-1.0]], requires_grad=True)
targets = torch.tensor([[0.0], [1.0], [1.0]])
# Compute the loss
loss = criterion(preds, targets)
print(f"Focal Loss value: {loss.item():.4f}")
من المفيد التمييز بين الخسارة البؤرية والمصطلحات ذات الصلة في مشهد دالة الخسارة: