اكتشف كيف يحسّن Gradient Descent Descent نماذج الذكاء الاصطناعي مثل Ultralytics YOLO مما يتيح تنبؤات دقيقة في المهام بدءاً من الرعاية الصحية وحتى السيارات ذاتية القيادة.
نزول التدرج هي خوارزمية تكرارية أساسية تُستخدم لتقليل الدالة عن طريق التحرك في اتجاه الأكثر انحدارًا. في سياق التعلم الآلي (ML) و والتعلم العميق (DL)، فهي تعمل كآلية توجيهية التي تدرب النماذج على إجراء تنبؤات دقيقة. الهدف الأساسي هو العثور على المجموعة المثلى من من أوزان النماذج التي تقلل من دالة الخسارة، والتي تمثل الفرق بين تنبؤات النموذج والقيم المستهدفة الفعلية. يمكنك تصوّر هذه العملية كمتنزه يحاول العثور على قاع وادٍ في ضباب كثيف؛ من خلال اتخاذ خطوات متكررة في اتجاه المنحدر الأكثر انحدارًا, يصل المتنزه في النهاية إلى أدنى نقطة. يتم استكشاف هذا المفهوم الأساسي بمزيد من التفصيل في دورةGoogle للتعلم الآلي السريع.
تتضمن الآليات الأساسية لنسب التدرج حساب التدرج - وهو متجه المشتقات الجزئية - لدالة الخسارة لدالة الخسارة بالنسبة لكل معلمة. يتم التعامل مع هذا الحساب بكفاءة بواسطة خوارزمية خوارزمية الانتشار العكسي. بمجرد تحديد التدرج يقوم النموذج بتحديث معلماته عن طريق اتخاذ خطوة في الاتجاه المعاكس للتدرج. يتم التحكم في حجم هذه الخطوة يتم التحكم به من خلال معلمة حاسمة تعرف باسم معدل التعلّم. إذا كان معدل التعلّم مرتفعًا جدًا، فإن فقد تتجاوز الخوارزمية الحد الأدنى؛ وإذا كان منخفضًا جدًا، فقد يستغرق التدريب وقتًا طويلاً للغاية. تتكرر هذه الدورة تتكرر على عدة تمريرات عبر مجموعة البيانات، والتي تُدعى الحلقات, حتى تستقر الخسارة. للحصول على منظور رياضي, تقدم أكاديمية خان درسًا عن النسب المتدرجة الذي يشرح طريقة حساب التفاضل والتكامل المتضمنة.
توجد أشكال مختلفة من الخوارزمية لتحقيق التوازن بين الكفاءة الحسابية وسرعة التقارب:
فيما يلي مثال موجز عن كيفية تكوين مُحسِّن لتدريب Ultralytics YOLO11 نموذج YOLO11:
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Train the model using the SGD optimizer with a specific learning rate
# The 'optimizer' argument allows you to select the gradient descent variant
results = model.train(data="coco8.yaml", epochs=50, optimizer="SGD", lr0=0.01)
النسب المتدرجة هو المحرك وراء العديد من تطبيقات الذكاء الاصطناعي في مجال الرعاية الصحية والتطبيقات الصناعية.
لفهم النسب المتدرج بشكل كامل، يجب تمييزه عن المصطلحات ذات الصلة. بينما يحسب الانتساب العكسي التدرجات (تحديد "الاتجاه")، فإن "نزول التدرج" هو هو خوارزمية التحسين التي تقوم بتحديث المعلمات (اتخاذ "الخطوة"). بالإضافة إلى ذلك، بينما تستخدم خوارزمية نزول التدرج القياسية عادةً يستخدم معدل تعلم ثابت، فإن الخوارزميات التكيفية مثل خوارزمية مُحسِّنAdam بضبط معدل التعلّم ديناميكيًا لكل متغير، مما يؤدي غالبًا إلى تقارب أسرع كما هو موضح في ورقة ورقةAdam البحثية الأصلية. يمكن لتحديات مثل مشكلة التدرّج المتلاشي يمكن أن تعيق معيار نزول التدرج في الشبكات العميقة جدًا، مما يستلزم حلولًا معمارية مثل تطبيع الدُفعات أو الوصلات المتبقية. يمكن الاطلاع على لمحات عامة شاملة عن تحديات التحسين هذه في مدونة سيباستيان رودر.