استكشف دور درجات الثقة في الذكاء الاصطناعي. تعرف على كيفية تصفية التنبؤات، وتحسين التوازن بين الدقة والاسترجاع، وتنفيذ Ultralytics من أجل الدقة.
في مجال الذكاء الاصطناعي والتعلم الآلي، درجة الثقة هي مقياس يحدد مستوى اليقين الذي يتمتع به النموذج فيما يتعلق بتنبؤ معين. تتراوح هذه القيمة عادةً بين 0 و 1 (أو 0٪ إلى 100٪) وتمثل الاحتمال المقدر لتوافق ناتج الخوارزمية مع الحقيقة الأساسية. على سبيل المثال، في مهمة الكشف عن الكائنات ، إذا قام النظام منطقة من الصورة على أنها "دراجة" بثقة تبلغ 0.92، فإن ذلك يشير إلى احتمال تقديري بنسبة 92٪ أن التصنيف صحيح. يتم اشتقاق هذه الدرجات من الطبقة النهائية من الشبكة العصبية، والتي غالبًا ما تتم معالجتها من خلال وظيفة تنشيط مثل Softmax للتصنيف متعدد الفئات أو وظيفة Sigmoid للقرارات الثنائية.
تعد درجات الثقة مكونًا أساسيًا في سير عمل محرك الاستدلال، حيث تعمل كمرشح لتمييز التنبؤات عالية الجودة عن الضوضاء الخلفية. تتيح عملية التصفية هذه، المعروفة باسم تحديد العتبة، للمطورين ضبط حساسية التطبيق. من خلال تحديد عتبة ثقة دنيا، يمكنك إدارة المفاضلة الحاسمة بين الدقة والاسترجاع. قد detect الحد الأدنى detect الكائنات ولكنه يزيد من خطر النتائج الإيجابية الخاطئة، في حين أن الحد الأعلى يحسن الدقة ولكنه قد يؤدي إلى فقدان حالات دقيقة.
في البنى المتقدمة مثل Ultralytics تعد درجات الثقة ضرورية لتقنيات المعالجة اللاحقة مثل Non-Maximum Suppression (NMS). تستخدم NMS هذه الدرجات لإزالة المربعات المحددة الزائدة التي تتداخل بشكل كبير، مع الاحتفاظ فقط بالكشف ذو الاحتمالية الأعلى. تضمن هذه الخطوة أن يكون الناتج النهائي نظيفًا وجاهزًا للمهام اللاحقة مثل عد الكائنات أو تتبعها.
يوضح Python التالي Python كيفية تصفية التنبؤات حسب الثقة باستخدام
ultralytics الحزمة:
from ultralytics import YOLO
# Load the latest YOLO26n model
model = YOLO("yolo26n.pt")
# Run inference with a confidence threshold of 0.5 (50%)
# Only detections with a score above this value are returned
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.5)
# Inspect the confidence scores of the detected objects
for box in results[0].boxes:
print(f"Class: {box.cls}, Confidence: {box.conf.item():.2f}")
توفر درجات الثقة طبقة من قابلية التفسير التي لا غنى عنها في جميع الصناعات التي يتم فيها تطبيق الرؤية الحاسوبية (CV). فهي تساعد الأنظمة الآلية على تحديد متى يجب المضي قدماً بشكل مستقل ومتى يجب تشغيل التنبيهات للمراجعة البشرية.
من الضروري التمييز بين الثقة والمقاييس الإحصائية الأخرى المستخدمة في تقييم النموذج.
إذا كان النموذج ينتج باستمرار ثقة منخفضة للأشياء الصالحة، فهذا غالبًا ما يشير إلى وجود تباين بين بيانات التدريب وبيئة النشر. تشمل الاستراتيجيات للتخفيف من ذلك زيادة البيانات، والتي توسع بشكل مصطنع مجموعة البيانات عن طريق تغيير الإضاءة والدوران والضوضاء. علاوة على ذلك، فإن استخدام Ultralytics لتنفيذ خطوط أنابيب التعلم النشط يسمح للمطورين بسهولة تحديد العينات ذات الثقة المنخفضة، وتوضيحها، وإعادة تدريب النموذج. هذه الدورة التكرارية ضرورية لإنشاء عوامل ذكاء اصطناعي قوية قادرة على العمل بشكل موثوق في إعدادات ديناميكية في العالم الحقيقي.