اكتشف كيف يعمل نزول التدرج العشوائي على تحسين نماذج التعلم الآلي، مما يتيح التدريب الفعال لمجموعات البيانات الكبيرة ومهام التعلم العميق.
يُعدّ "تدرج الميول العشوائي" (SGD) خوارزمية تحسين أساسية ومستخدمة على نطاق واسع في التعلم الآلي (ML). وهي طريقة تكرارية تُستخدم لتدريب النماذج عن طريق تعديل معاييرها الداخلية، مثل الأوزان والانحيازات، لتقليل دالة الخسارة. على عكس "تدرج الميول" التقليدي، الذي يعالج مجموعة البيانات بأكملها لكل تحديث، يقوم SGD بتحديث المعلمات باستخدام عينة تدريب واحدة فقط يتم اختيارها عشوائيًا. هذا النهج "العشوائي" يجعل عملية التدريب أسرع وأكثر قابلية للتطوير بشكل ملحوظ، وهو أمر مهم بشكل خاص عند العمل مع البيانات الضخمة. يمكن أن تساعد التحديثات المشوبة بالضوضاء النموذج أيضًا على الهروب من الحد الأدنى المحلي الضعيف في مشهد الخطأ وربما إيجاد حل عام أفضل.
الفكرة الأساسية وراء SGD هي تقريب التدرج الحقيقي لدالة الخسارة، والذي يتم حسابه على مجموعة البيانات بأكملها، باستخدام تدرج الخسارة لعينة واحدة. في حين أن هذا التدرج أحادي العينة هو تقدير صاخب، إلا أنه رخيص من الناحية الحسابية، وفي المتوسط، يشير إلى الاتجاه الصحيح. تتضمن العملية تكرار دورة بسيطة من خطوتين لكل عينة تدريب:
تتكرر هذه الدورة لعدة تمريرات على مجموعة البيانات بأكملها، والمعروفة باسم الحقب، مما يحسن أداء النموذج تدريجيًا. لقد جعلت كفاءة SGD حجر الزاوية في التعلم العميق (DL) الحديث، وهي مدعومة من قبل جميع الأطر الرئيسية مثل PyTorch و TensorFlow.
SGD هي واحدة من عدة طرق تحسين تعتمد على التدرج، ولكل منها مقايضات خاصة بها.
تعتبر SGD ومتغيراتها ضرورية لتدريب مجموعة واسعة من نماذج الذكاء الاصطناعي عبر مجالات مختلفة.