Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

الخسارة البؤرية

اكتشف كيف تعالج Focal Loss اختلال التوازن الفئوي في اكتشاف الكائنات - تركيز التدريب على الأمثلة الصعبة لتحسين الدقة في مجموعات البيانات غير المتوازنة.

Focal Loss هي وظيفة موضوعية متخصصة تستخدم بشكل أساسي في مهام الرؤية الحاسوبية لمعالجة التحدي المتمثل في التفاوت الشديد بين الفئات أثناء تدريب النموذج. وهي ذات قيمة خاصة في سيناريوهات اكتشاف الكائنات حيث يفوق عدد أمثلة الخلفية (العينات السلبية) عدد الكائنات محل الاهتمام (العينات الإيجابية) بشكل كبير. من خلال تحجيم العقوبة المخصصة لكل عينة ديناميكيًا، تعمل Focal Loss على تقليل وزن الأمثلة "السهلة" الأمثلة "السهلة" — تلك التي يمكن للنموذج classify بالفعل classify — ويجبر عملية التحسين على التركيز على الأمثلة "الصعبة" التي يصعب classify. يمنع هذا النهج المستهدف العدد الهائل من السلبيات السهلة من إرباك إشارة التدريب، وبالتالي تحسين دقة النموذج على الكائنات المتفرقة ولكن الحاسمة .

حل مشكلة عدم التوازن بين الطبقات

في العديد من تطبيقات التعلم العميق (DL) ، خاصة أجهزة الكشف عن الأجسام أحادية المرحلة، تتضمن عملية التدريب تقييم آلاف المواقع المرشحة في الصورة. لا تحتوي غالبية هذه المواقع على أي أجسام ويمكن التعرف عليها بسهولة على أنها خلفية. تعامل الوظائف القياسية مثل Cross-Entropy Loss جميع حالات التصنيف الخاطئ على قدم المساواة. وبالتالي، يمكن أن يطغى الخطأ المتراكم من آلاف العينات السهلة في الخلفية على الإشارة من العينات الإيجابية القليلة الصعبة، مما يؤدي إلى نموذج منحاز نحو الفئة الأغلبية.

يعدل Focal Loss حساب الخسارة القياسي عن طريق إدخال معامل تركيز، يُشار إليه عادةً بالرمز gamma ($\gamma$). مع زيادة احتمالية الفئة الصحيحة (مما يعني أن المثال "سهل")، يقلل عامل التعديل من مساهمة الخسارة إلى ما يقرب من الصفر. وعلى العكس، بالنسبة للأمثلة المصنفة بشكل خاطئ أو غير المؤكدة (الحالات "الصعبة")، تظل الخسارة كبيرة. تضمن هذه الآلية أن تقوم خوارزمية التحسين بتحديث أوزان النموذج بناءً على الأمثلة التي تتطلب بالفعل تحسينًا، بدلاً من مجرد التحقق من صحة ما يعرفه النموذج بالفعل.

تطبيقات واقعية

تجعل القدرة على التعامل مع مجموعات البيانات غير المتوازنة من Focal Loss حجر الزاوية في حلول الذكاء الاصطناعي الحديثة في المجالات الحساسة من حيث السلامة و الدقة العالية.

  • التشخيص الطبي: في تحليل الصور الطبية، غالبًا ما يمثل تحديد الأمراض مشكلة "إبرة في كومة قش". على سبيل المثال، عند الكشف عن آفات صغيرة في فحص بالأشعة المقطعية، تشكل الأنسجة السليمة 99٪ من الصورة. قد تحقق وظيفة الخسارة القياسية دقة عالية بمجرد تخمين "صحة" كل بكسل. من خلال تطبيق Focal Loss، يمكن للنماذج المستخدمة في الذكاء الاصطناعي في الرعاية الصحية تجاهل الأنسجة السليمة الوفيرة وتركيز التعلم على السمات النادرة والدقيقة للأورام أو الكسور، مما يحسن بشكل كبير من استرجاع الاكتشافات المنقذة للحياة.
  • القيادة الذاتية: يجب أن detect الأنظمة التي تشغل المركبات الذاتية detect و راكبي الدراجات والحطام على خلفية الطرق والمباني والسماء. من السهل التعرف على الخلفية، ولكن من الصعب التعرف على العوائق الصغيرة البعيدة. تتيح تقنية Focal Loss لنظام الإدراك إعطاء الأولوية لهذهdetect مما يضمن عدم تفويت المركبة للمخاطر الحرجة حتى عندما تشغل جزءًا صغيرًا فقط من مجال الرؤية . وهذا أمر بالغ الأهمية لاكتشاف المشاة بشكل فعال و للسلامة العامة.

التنفيذ باستخدام Ultralytics

إن ultralytics تتضمن المكتبة تطبيقات محسّنة لوظائف الخسارة لدعم تدريب نماذج متطورة مثل يولو26. في حين أن التدريب عالي المستوى يتم أتمتته عبر منصة Ultralytics، يمكن للمطورين الوصول إلى مكونات خسارة محددة لخطوط الأنابيب المخصصة.

يوضح المثال التالي كيفية تهيئة Focal Loss وحساب الخطأ بين درجات التنبؤ و تسميات الهدف باستخدام ultralytics حزمة المرافق.

import torch
from ultralytics.utils.loss import FocalLoss

# Initialize Focal Loss with a standard gamma value
# Gamma=1.5 aggressively down-weights easy examples
criterion = FocalLoss(gamma=1.5)

# Example: Predictions (logits) and binary Ground Truth labels
predictions = torch.tensor([[0.8], [-1.5], [0.1]], requires_grad=True)
targets = torch.tensor([[1.0], [0.0], [1.0]])

# Calculate the loss
loss = criterion(predictions, targets)
print(f"Computed Focal Loss: {loss.item():.4f}")

التمييز عن المفاهيم ذات الصلة

إن فهم كيفية اندماج فقدان البؤرة في المشهد الأوسع لقياس الخطأ مفيد في اختيار استراتيجية التدريب المناسبة .

  • خسارة البؤرة مقابل خسارة التقاطع: خسارة التقاطع هي المقياس الأساسي للتصنيف الذي يعاقب التوقعات بناءً على الخطأ اللوغاريتمي. خسارة البؤرة هي بشكل صارم امتداد لخسارة التقاطع. إذا تم تعيين معلمة التركيز على صفر، فإن خسارة البؤرة تعود رياضيًا إلى خسارة التقاطع القياسية. الفرق الرئيسي هو قدرة خسارة البؤرة على تقليل وزن السلبيات السهلة.
  • خسارة بؤرية مقابل IoU : في حين أن الخسارة البؤرية مصممة للتصنيف (تحديد ماهية الكائن)، يتم استخدام التقاطع فوق الاتحاد (IoU) للتحديد المكاني (تحديد مكان الكائن). أجهزة الكشف الحديثة مثل YOLO11 و YOLO26 وظيفة خسارة مركبة تجمع بين الخسارة البؤرية (أو متغيراتها مثل الخسارة متغيرة البؤرة) لاحتمالات التصنيف والخسارة IoU لانحدار مربع الحدود.
  • فقدان البؤرة مقابل OHEM: التعدين الصعب للأمثلة عبر الإنترنت (OHEM) هو استراتيجية قديمة تتجاهل تمامًا الأمثلة السهلة وتدرب فقط على أصعب الأمثلة في الدفعة. يُفضل فقدان البؤرة بشكل عام اليوم لأنه يستخدم عامل قياس مستمر بدلاً من قطع صارم، مما يوفر إشارة تدريب أكثر سلاسة واستقرارًا من جميع بيانات التدريب.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن