Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

خوارزمية التحسين

اكتشف كيف AdamW خوارزميات التحسين مثل SGD AdamW تدريب التعلم الآلي. تعلم كيفية تقليل الخسائر وتحسين أداء Ultralytics لتطبيقات الذكاء الاصطناعي.

تعمل خوارزمية التحسين كمحرك حسابي أساسي يقود عملية التدريب لنماذج التعلم الآلي (ML) و التعلم العميق (DL). وتتمثل مسؤوليتها الأساسية في تعديل أوزان النموذج الداخلية وتحيزاته بشكل متكرر لتقليل الخطأ بين النتائج المتوقعة والأهداف الفعلية. يمكنك تصور هذه العملية على أنها متنزه يحاول النزول من جبل ضبابي للوصول إلى أدنى نقطة في الوادي. تعمل خوارزمية التحسين كدليل، حيث تحدد اتجاه وحجم الخطوة التي يجب أن يتخذها المتنزه للوصول إلى القاع، وهو ما يتوافق مع الحالة التي يتم فيها تقليل دالة الخسارة إلى الحد الأدنى وزيادة دقة التنبؤ للنموذج إلى الحد الأقصى.

كيف تعمل خوارزميات التحسين؟

يتضمن تدريب الشبكة العصبية دورة متكررة من التنبؤ وحساب الأخطاء وتحديث المعلمات. تتحكم خوارزمية التحسين في مرحلة "التحديث" من هذه الدورة. بمجرد معالجة مجموعة من بيانات التدريب، يحسب النظام تدرجًا — وهو متجه يشير إلى اتجاه الزيادة الأكثر حدة في الخطأ — باستخدام طريقة تسمى الانتشار العكسي.

ثم يقوم المحسن بتحديث معلمات النموذج في الاتجاه المعاكس للانحدار لتقليل الخطأ. يخضع حجم هذا التحديث لمعلمة فائقة الأهمية تُعرف باسم معدل التعلم. إذا كانت الخطوة كبيرة جدًا، فقد يتجاوز النموذج الحد الأدنى الشامل؛ وإذا كانت صغيرة جدًا، فقد يصبح التدريب بطيئًا للغاية أو يتعطل في الحد الأدنى المحلي. تقدم الموارد المتقدمة مثل ملاحظات تحسين ستانفورد CS231n رؤى تقنية أعمق في هذه الديناميكيات.

الأنواع الشائعة من خوارزميات التحسين

تتطلب المشكلات المختلفة استراتيجيات مختلفة. على الرغم من وجود العديد من الاختلافات، إلا أن هناك بعض الخوارزميات الرئيسية التي تهيمن على تطوير الذكاء الاصطناعي الحديث:

  • الانحدار العشوائي التدرجي (SGD): نهج كلاسيكي يقوم بتحديث المعلمات باستخدام مثال واحد أو مجموعة صغيرة بدلاً من مجموعة البيانات بأكملها. هذه الطريقة فعالة حسابياً وتستخدم على نطاق واسع في مكتبات مثل Scikit-learn.
  • Adam : يرمز إلى تقدير اللحظة التكيفي، Adam معدل التعلم لكل معلمة على حدة. تم تفصيله في ورقةAdam رائدة Adam من قبل Kingma و Ba، وغالبًا ما يكون الخيار الافتراضي للتدريب للأغراض العامة نظرًا لسرعته وخصائصه التلاقي.
  • AdamW: نسخة Adam من Adam بين انخفاض الوزن وتحديث التدرج، Adam يؤدي إلى تحسين التعميم. غالبًا ما يكون هذا هو المحسن المفضل لتدريب أحدث البنى مثل Transformers ونماذج Ultralytics عالية الأداء .

تطبيقات واقعية

تعمل خوارزميات التحسين بصمت خلف الكواليس في كل حل ناجح تقريبًا للذكاء الاصطناعي، حيث تحول البيانات إلى معلومات استخباراتية قابلة للتنفيذ.

  1. المركبات ذاتية القيادة: في تكنولوجيا القيادة الذاتية، يجب أن تتعرف أنظمة الكشف عن الأجسام على الفور على المشاة وإشارات المرور والسيارات الأخرى. أثناء تدريب هذه الأنظمة على الذكاء الاصطناعي في السيارات، تقوم خوارزمية تحسين بمعالجة ملايين الصور للطرق، وضبط الشبكة لتقليل أخطاء الكشف إلى الحد الأدنى. وهذا يضمن توقف السيارة بشكل موثوق عندما ترى شخصًا، مما يمنع وقوع الحوادث.
  2. تحليل الصور الطبية: بالنسبة لتطبيقات الذكاء الاصطناعي في مجال الرعاية الصحية، مثل تحديد الأورام في فحوصات التصوير بالرنين المغناطيسي، فإن الدقة أمر لا يقبل التفاوض. تعمل أدوات التحسين على توجيه تدريب الشبكات العصبية التلافيفية (CNNs) لتمييز الأنسجة الخبيثة عن الأنسجة السليمة بحساسية عالية، مما يقلل من خطر النتائج السلبية الخاطئة في التشخيصات الحرجة.

التمييز بين المفاهيم ذات الصلة

من المهم التمييز بين خوارزمية التحسين والمكونات الأخرى لعملية التعلم من أجل فهم سير العمل بفعالية.

  • خوارزمية التحسين مقابل وظيفة الخسارة: تعمل وظيفة الخسارة كـ "لوحة النتائج"، حيث تحسب قيمة رقمية (مثل متوسط الخطأ المربع) تمثل مدى خطأ تنبؤات النموذج. خوارزمية التحسين هي "الاستراتيجي" الذي يستخدم هذه النتيجة لتعديل الأوزان وتحسين الأداء في الجولة التالية.
  • خوارزمية التحسين مقابل ضبط المعلمات الفائقة: تتعلم خوارزمية التحسين المعلمات الداخلية (الأوزان) خلال حلقات التدريب. يتضمن ضبط المعلمات الفائقة اختيار أفضل الإعدادات الخارجية — مثل اختيار المحسن نفسه، أو حجم الدفعة، أو معدل التعلم الأولي —قبل بدء التدريب. غالبًا ما تُستخدم الأدوات الآلية مثل Ray Tune للعثور على التركيبة المثلى لهذه الإعدادات الخارجية.

تنفيذ التحسين في Python

في الأطر الحديثة، غالبًا ما يتم اختيار خوارزمية التحسين عبر حجة واحدة. يوضح المثال التالي كيفية تدريب يولو26 باستخدام نموذج AdamW المحسّن داخل ultralytics الحزمة. يمكن للمستخدمين أيضًا الاستفادة من منصة Ultralytics للحصول على نهج بدون كود لإدارة هذه الدورات التدريبية .

from ultralytics import YOLO

# Load the latest YOLO26 model (recommended for new projects)
model = YOLO("yolo26n.pt")

# Train the model using the 'AdamW' optimization algorithm
# The optimizer iteratively updates weights to minimize loss on the dataset
results = model.train(data="coco8.yaml", epochs=5, optimizer="AdamW")

بالنسبة للمهتمين بالآليات ذات المستوى الأدنى، توفر أطر عمل مثل PyTorch و TensorFlow Optimizers وثائق شاملة حول كيفية تنفيذ وتخصيص هذه الخوارزميات لهياكل البحث المخصصة.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن