اكتشف كيف AdamW خوارزميات التحسين مثل SGD AdamW تدريب التعلم الآلي. تعلم كيفية تقليل الخسائر وتحسين أداء Ultralytics لتطبيقات الذكاء الاصطناعي.
تعمل خوارزمية التحسين كمحرك حسابي أساسي يقود عملية التدريب لنماذج التعلم الآلي (ML) و التعلم العميق (DL). وتتمثل مسؤوليتها الأساسية في تعديل أوزان النموذج الداخلية وتحيزاته بشكل متكرر لتقليل الخطأ بين النتائج المتوقعة والأهداف الفعلية. يمكنك تصور هذه العملية على أنها متنزه يحاول النزول من جبل ضبابي للوصول إلى أدنى نقطة في الوادي. تعمل خوارزمية التحسين كدليل، حيث تحدد اتجاه وحجم الخطوة التي يجب أن يتخذها المتنزه للوصول إلى القاع، وهو ما يتوافق مع الحالة التي يتم فيها تقليل دالة الخسارة إلى الحد الأدنى وزيادة دقة التنبؤ للنموذج إلى الحد الأقصى.
يتضمن تدريب الشبكة العصبية دورة متكررة من التنبؤ وحساب الأخطاء وتحديث المعلمات. تتحكم خوارزمية التحسين في مرحلة "التحديث" من هذه الدورة. بمجرد معالجة مجموعة من بيانات التدريب، يحسب النظام تدرجًا — وهو متجه يشير إلى اتجاه الزيادة الأكثر حدة في الخطأ — باستخدام طريقة تسمى الانتشار العكسي.
ثم يقوم المحسن بتحديث معلمات النموذج في الاتجاه المعاكس للانحدار لتقليل الخطأ. يخضع حجم هذا التحديث لمعلمة فائقة الأهمية تُعرف باسم معدل التعلم. إذا كانت الخطوة كبيرة جدًا، فقد يتجاوز النموذج الحد الأدنى الشامل؛ وإذا كانت صغيرة جدًا، فقد يصبح التدريب بطيئًا للغاية أو يتعطل في الحد الأدنى المحلي. تقدم الموارد المتقدمة مثل ملاحظات تحسين ستانفورد CS231n رؤى تقنية أعمق في هذه الديناميكيات.
تتطلب المشكلات المختلفة استراتيجيات مختلفة. على الرغم من وجود العديد من الاختلافات، إلا أن هناك بعض الخوارزميات الرئيسية التي تهيمن على تطوير الذكاء الاصطناعي الحديث:
تعمل خوارزميات التحسين بصمت خلف الكواليس في كل حل ناجح تقريبًا للذكاء الاصطناعي، حيث تحول البيانات إلى معلومات استخباراتية قابلة للتنفيذ.
من المهم التمييز بين خوارزمية التحسين والمكونات الأخرى لعملية التعلم من أجل فهم سير العمل بفعالية.
في الأطر الحديثة، غالبًا ما يتم اختيار خوارزمية التحسين عبر حجة واحدة. يوضح المثال التالي
كيفية تدريب يولو26 باستخدام نموذج
AdamW المحسّن داخل ultralytics الحزمة. يمكن للمستخدمين أيضًا الاستفادة من
منصة Ultralytics للحصول على نهج بدون كود لإدارة هذه الدورات التدريبية
.
from ultralytics import YOLO
# Load the latest YOLO26 model (recommended for new projects)
model = YOLO("yolo26n.pt")
# Train the model using the 'AdamW' optimization algorithm
# The optimizer iteratively updates weights to minimize loss on the dataset
results = model.train(data="coco8.yaml", epochs=5, optimizer="AdamW")
بالنسبة للمهتمين بالآليات ذات المستوى الأدنى، توفر أطر عمل مثل PyTorch و TensorFlow Optimizers وثائق شاملة حول كيفية تنفيذ وتخصيص هذه الخوارزميات لهياكل البحث المخصصة.