اكتشف كيف يعمل التدرج العشوائي على تحسين نماذج التعلُّم الآلي من خلال تحسين نماذج التعلُّم الآلي، مما يتيح التدريب الفعّال لمجموعات البيانات الكبيرة ومهام التعلُّم العميق.
تُعد خوارزمية التدرج العشوائي (SGD) خوارزمية تحسين أساسية ومستخدمة على نطاق واسع في التعلم الآلي (ML). وهي طريقة تكرارية تُستخدم لتدريب النماذج من خلال تعديل معلماتها الداخلية، مثل الأوزان والانحيازات، لتقليل دالة الخسارة. على عكس طريقة "نزول التدرج" التقليدية، التي تعالج مجموعة البيانات بأكملها لكل تحديث، تقوم خوارزمية SGD بتحديث المعلمات باستخدام عينة تدريب واحدة فقط يتم اختيارها عشوائيًا. هذا النهج "العشوائي" يجعل عملية التدريب أسرع بكثير وأكثر قابلية للتطوير، وهو أمر مهم بشكل خاص عند العمل مع البيانات الضخمة. كما يمكن للتحديثات الصاخبة أن تساعد النموذج أيضًا على الهروب من الحدود الدنيا المحلية الضعيفة في مشهد الخطأ، ومن المحتمل أن تجد حلاً أفضل بشكل عام.
تتمثل الفكرة الأساسية وراء SGD في تقريب التدرج الحقيقي لدالة الخسارة، والذي يتم حسابه على مجموعة البيانات بأكملها، باستخدام تدرج الخسارة لعينة واحدة. على الرغم من أن هذا التدرج لعينة واحدة هو تقدير مشوش، إلا أنه رخيص من الناحية الحسابية، وفي المتوسط، يشير إلى الاتجاه الصحيح. تتضمن العملية تكرار دورة بسيطة من خطوتين لكل عينة تدريب:
تتكرر هذه الدورة للعديد من التمريرات على مجموعة البيانات بأكملها، والمعروفة باسم الحقب، مما يؤدي إلى تحسين أداء النموذج تدريجيًا. جعلت كفاءة SGD من كفاءة SGD حجر الزاوية في التعلم العميق الحديث (DL)، وهو مدعوم من قبل جميع الأطر الرئيسية مثل PyTorch و TensorFlow.
يُعد SGD واحدًا من عدة طرق تحسين قائمة على التدرج، ولكل منها مفاضلاته الخاصة.
تُعد SGD ومتغيراته أمرًا بالغ الأهمية لتدريب مجموعة كبيرة من نماذج الذكاء الاصطناعي في مجالات مختلفة.