استعدوا لـ YOLO Vision 2025!
25 سبتمبر، 2025
10:00 — 18:00 بتوقيت بريطانيا الصيفي
حدث هجين
مؤتمر Yolo Vision 2024
مسرد المصطلحات

ضبط المعلمات الفائقة

أتقن عملية ضبط المعلمات الفائقة لتحسين نماذج تعلم الآلة مثل Ultralytics YOLO. عزز الدقة والسرعة والأداء باستخدام تقنيات الخبراء.

ضبط المعلمات الفائقة هو عملية إيجاد إعدادات التكوين المثالية لنموذج التعلم الآلي (ML). هذه الإعدادات، المعروفة باسم المعلمات الفائقة، هي خارجية للنموذج ولا يمكن تعلمها مباشرة من البيانات أثناء عملية التدريب. بدلاً من ذلك، يتم تعيينها قبل بدء التدريب وتتحكم في كيفية تصرف عملية التدريب نفسها. يعد الضبط الفعال لهذه المعلمات الفائقة خطوة حاسمة في زيادة أداء النموذج إلى أقصى حد وضمان تعميمه بشكل جيد على البيانات الجديدة غير المرئية. بدون الضبط المناسب، حتى بنية النموذج الأكثر تقدمًا يمكن أن يكون أداؤها ضعيفًا.

ضبط المعلمات الفائقة مقابل المفاهيم ذات الصلة

من المهم التمييز بين ضبط المعلمات الفائقة والمفاهيم الرئيسية الأخرى في التعلم الآلي:

  • خوارزمية التحسين: خوارزمية التحسين، مثل Adam أو Stochastic Gradient Descent (SGD)، هي المحرك الذي يضبط المعلمات الداخلية للنموذج (الأوزان والانحيازات) أثناء التدريب لتقليل دالة الخسارة. في المقابل، يتضمن ضبط المعلمات الفائقة تحديد أفضل الإعدادات الخارجية، والتي يمكن أن تشمل حتى اختيار خوارزمية التحسين نفسها.
  • البحث عن البنية العصبية (NAS): في حين أن ضبط المعلمات الفائقة يحسن الإعدادات لهيكل نموذج معين، فإن NAS يقوم بأتمتة تصميم بنية النموذج نفسها، مثل تحديد عدد ونوع الطبقات. كلاهما شكل من أشكال التعلم الآلي الآلي (AutoML) وغالبًا ما يستخدمان معًا لبناء أفضل نموذج ممكن.
  • معلمات النموذج: هذه هي المتغيرات الداخلية للنموذج، مثل الأوزان والانحيازات في شبكة عصبية، التي يتم تعلمها من بيانات التدريب من خلال الانتشار الخلفي. المعلمات الفائقة هي الإعدادات ذات المستوى الأعلى التي تحكم كيفية تعلم هذه المعلمات.

طرق الضبط الشائعة والمعلمات الفائقة

يستخدم الممارسون العديد من الاستراتيجيات للعثور على أفضل قيم للمعلمات الفائقة. تتضمن الطرق الشائعة البحث الشبكي، الذي يجرب بشكل شامل كل مجموعة من القيم المحددة، والبحث العشوائي، الذي يأخذ عينات من المجموعات عشوائيًا، وطرقًا أكثر تقدمًا مثل التحسين البايزي و الخوارزميات التطورية.

تتضمن بعض المعلمات الفائقة الأكثر تعديلاً ما يلي:

  • معدل التعلم: يتحكم في مقدار تعديل أوزان النموذج فيما يتعلق بتدرج الخسارة.
  • حجم الدفعة: عدد أمثلة التدريب المستخدمة في تكرار واحد.
  • عدد الحقب: عدد المرات التي يتم فيها تمرير مجموعة بيانات التدريب بأكملها عبر النموذج.
  • زيادة البيانات الكثافة: درجة التحويلات المطبقة على بيانات التدريب، مثل التدوير أو تغيير الحجم أو تحويلات الألوان. مكتبة Albumentations هي أداة شائعة لهذا الغرض.

تطبيقات واقعية

يتم تطبيق ضبط المعلمات الفائقة عبر مجالات مختلفة لتحقيق ذروة الأداء:

ضبط المعلمات الفائقة مع Ultralytics

توفر Ultralytics أدوات لتبسيط عملية ضبط المعلمات الفائقة لـ Ultralytics YOLO النماذج. ال Ultralytics Tuner فئة، موثقة في دليل ضبط المعلمات الفائقة، يقوم بأتمتة العملية باستخدام الخوارزميات التطورية. التكامل مع منصات مثل Ray Tune يوفر المزيد من القدرات لاستراتيجيات البحث الموزعة والمتقدمة، مما يساعد المستخدمين على تحسين نماذجهم بكفاءة لمجموعات بيانات محددة (مثل COCO) والمهام. يمكن للمستخدمين الاستفادة من منصات مثل Ultralytics HUB لتبسيط تتبع وإدارة التجارب، وهو جزء أساسي غالبًا في اتباع أفضل الممارسات لـ تدريب النموذج. مكتبات مفتوحة المصدر شائعة مثل Optuna و Hyperopt تُستخدم أيضًا على نطاق واسع في مجتمع تعلم الآلة (ML) لهذا الغرض.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة