Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

أنواع الحساء

اكتشف كيف تعمل "Model Soups" على تحسين الدقة والمتانة من خلال حساب متوسط أوزانYOLO من Ultralytics . تعلم كيفية تعزيز الأداء دون زيادة زمن الاستجابة.

يشير مصطلح «نماذج الحساء» (Model Soups) إلى تقنية تعلم آلي يتم فيها حساب متوسط أوزان شبكات عصبية متعددة، تم ضبطها بدقة انطلاقًا من نفس النموذج الأساسي المُدرَّب مسبقًا باستخدام معلمات عليا مختلفة، بهدف إنشاء نموذج واحد أكثر متانة. ويسمح هذا النهج للمطورين بتحسين الدقة الإجمالية والقدرة على التعميم دون زيادة التكلفة الحسابية أثناء عملية الاستدلال.

عند ضبط النموذج، يقوم الممارسون عادةً بإجراء مسح واسع النطاق لضبط المعلمات الفائقة من أجل العثور على التكوين الأفضل أداءً. تقليديًا، يتم اختيار النموذج الأفضل وحده، ويتم استبعاد البقية. ومع ذلك، يستفيد إنشاء "مزيج النماذج" من الميزات المتنوعة التي تعلمتها جميع النماذج في عملية المسح. من خلال حساب متوسط أوزان النماذج مباشرةً، غالبًا ما تتفوق الشبكة الناتجة على النموذج الأفضل وحده، حيث تجمع بين نقاط قوتها بفعالية مع تقليل التكيف المفرط. هذه العملية عالية الكفاءة ويمكن إدارتها بسهولة ضمن بيئات تعاونية مثل Ultralytics .

تطبيقات واقعية

تُعد نماذج "سوبس" فعالة للغاية في الحالات التي تكون فيها الموارد الحاسوبية محدودة، ولكن يُطلب فيها دقة عالية و متانة.

  • رؤية المركبات ذاتية القيادة: عند استخدام أنظمة الكشف عن الأجسام في السيارات ذاتية القيادة، يجب أن تكون النماذج قادرة على التعميم في ظل ظروف الإضاءة والطقس المتنوعة. ومن خلال حساب المتوسط بين نماذج متعددة تم تدريبها باستخدام توسعات بيانات ومعدلات تعلم متنوعة، ينجح المهندسون في إنشاء مزيج قوي للغاية يحافظ على زمن استجابة منخفض في عملية الاستدلال. وهذا يضمن عدم تأثر سرعات المعالجة في الوقت الفعلي، التي تعتبر حاسمة بالنسبة للتنقل الذاتي.
  • التشخيص الطبي عبر الأجهزة المحمولة: في تطبيقات الذكاء الاصطناعي الطرفية، مثل إجراء تصنيف الصور على الهواتف الذكية من أجل الفحص الجلدي الأولي، تكون القوة الحاسوبية محدودة للغاية. ويوفر «مزيج النماذج» الدقة المعززة اللازمة لضمان الموثوقية السريرية، مع ضمان أن تتناسب الحجم النهائي بسهولة مع الأجهزة الطرفية المحمولة دون استنزاف البطارية أو الحاجة إلى الاتصال بالسحابة.

التفريق بين المفاهيم ذات الصلة

للتعرف على عالم تحسين التعلم العميق، من المهم التمييز بين "Model Soups" والتقنيات المماثلة:

  • مجموعة النماذج: تجميع النماذج يجمع بين تنبؤات (مخرجات) عدة نماذج مستقلة. ورغم أن هذا يحسّن الدقة، إلا أنه يتطلب تشغيل كل نموذج أثناء عملية الاستدلال، مما يضاعف التكلفة الحسابية. أما "حساء النماذج" فيحسب متوسط الأوزان قبل عملية الاستدلال، مما يحافظ على التكلفة الحسابية عند نفس مستوى النموذج الفردي.
  • دمج النماذج: هذا مصطلح عام يشير إلى دمج النماذج التي ربما تم تدريبها على مهام أو مجموعات بيانات مختلفة تمامًا. وتُعد «مزيج النماذج» مجموعة فرعية محددة من عمليات الدمج، حيث تنشأ جميع النماذج من نفس البنية الأساسية المُدرَّبة مسبقًا تمامًا، ويتم ضبطها بدقة لأداء المهمة المستهدفة نفسها.

مثال على التنفيذ

يتطلب إنشاء "مجموعة نماذج موحدة" الوصول إلى قاموسPyTorch الخاص بعدة نماذج مدربة وإجراء متوسط رياضي لمصفوفاتها. وفيما يلي مثال موجز لكيفية تحقيق ذلك باستخدام سير عمل Ultralytics المدعوم أصلاً PyTorch .

import torch

# Load the PyTorch state dictionaries from two fine-tuned YOLO26 models
model1 = torch.load("yolo26_run1.pt")["model"].state_dict()
model2 = torch.load("yolo26_run2.pt")["model"].state_dict()

# Create a uniform model soup by averaging the model weights
soup_dict = {key: (model1[key] + model2[key]) / 2.0 for key in model1.keys()}

# The resulting soup_dict can now be loaded into a new YOLO26 instance

من خلال الاستفادة من هذه التقنية، يمكن لممارسي مجال الرؤية الحاسوبية تحسين مؤشرات الأداء بسهولة، مثل قدرات التعلم بدون تدريب مسبق (zero-shot) والمتانة العامة دون المساس بسرعة النشر المطلوبة لبنى الذكاء الاصطناعي الحديثة التي تعطي الأولوية للحافة.

لنبني مستقبل الذكاء الاصطناعي معًا!

ابدأ رحلتك مع مستقبل تعلم الآلة