استعدوا لـ YOLO Vision 2025!
25 سبتمبر، 2025
10:00 — 18:00 بتوقيت بريطانيا الصيفي
حدث هجين
مؤتمر Yolo Vision 2024
مسرد المصطلحات

محسن آدم (Adam Optimizer)

تعرف على كيف يعمل مُحسِّن Adam على تشغيل تدريب الشبكات العصبية بكفاءة باستخدام معدلات تعلم تكيفية، والزخم، والتطبيقات الواقعية في الذكاء الاصطناعي.

آدم (تقدير العزم المتكيف) هو خوارزمية تحسين شائعة وقوية تستخدم في التعلم الآلي (ML) و التعلم العميق (DL). وهي مصممة لإيجاد القيم المثلى لمعلمات النموذج (الأوزان والانحيازات) بكفاءة عن طريق تحديثها بشكل متكرر بناءً على بيانات التدريب. يُنظر إلى آدم على أنه ذو سرعة تقارب عالية وفعالية عبر مجموعة واسعة من المشكلات، مما يجعله خيارًا افتراضيًا شائعًا للعديد من الممارسين عند تدريب النماذج المخصصة. كان تطويره خطوة مهمة في جعل تدريب النماذج الكبيرة والمعقدة أكثر عملية.

كيف يعمل آدم

يكمن الابتكار الرئيسي في Adam في قدرته على تكييف معدل التعلم لكل معلمة فردية. بدلاً من استخدام معدل تعلم ثابت واحد لجميع الأوزان في الشبكة، يحسب Adam معدل تعلم فردي يتكيف مع تقدم التدريب. وهو يحقق ذلك من خلال الجمع بين مزايا طريقتين أخريين للتحسين: RMSProp و Momentum. يتتبع Adam مكونين رئيسيين: اللحظة الأولى (متوسط التدرجات، على غرار الزخم) واللحظة الثانية (التباين غير المركزي للتدرجات). يتيح له هذا المزيج إجراء تحديثات أكثر استنارة، واتخاذ خطوات أكبر للمعلمات ذات التدرجات المتسقة وخطوات أصغر لتلك ذات التدرجات الضوضائية أو المتفرقة. الطريقة مفصلة في ورقة بحث Adam الأصلية للمؤلفين Kingma و Ba.

آدم مقابل مُحسِّنات أخرى

من المفيد مقارنة Adam مع مُحسِّنات شائعة أخرى لفهم نقاط قوته.

  • آدم (Adam) مقابل تدرج تنازلي تصادمي (Stochastic Gradient Descent (SGD)): في حين أن SGD هي خوارزمية تحسين أساسية، فإنها تستخدم معدل تعلم ثابت يتم تطبيقه على جميع تحديثات المعلمات. هذا يمكن أن يتسبب في بطء التقارب أو التعثر في "وديان" دون المستوى الأمثل لدالة الخسارة (loss function). غالبًا ما يتنقل آدم، بمعدلات التعلم التكيفية الخاصة به، في مشهد الخسارة بكفاءة أكبر ويتقارب بشكل أسرع. ومع ذلك، تشير بعض الأبحاث إلى أن النماذج المدربة باستخدام SGD قد تعمم بشكل أفضل قليلاً وتتجنب التجاوز (overfitting) بشكل أكثر فعالية في سيناريوهات معينة. غالبًا ما يتطلب الاختيار اختبارًا تجريبيًا، كما هو موضح في الأدلة حول نصائح تدريب النموذج (model training tips).
  • آدم دبليو (AdamW): البديل الشائع والفعال هو AdamW (آدم مع تحلل الوزن المنفصل). يقوم بتعديل الطريقة التي يتم بها تطبيق تحلل الوزن—وهي تقنية تنظيم (regularization)—، وفصلها عن خطوة تحديث التدرج. غالبًا ما يؤدي هذا إلى تحسين أداء النموذج وتحسين التعميم. التطبيقات متاحة في أطر عمل رئيسية مثل باي تورش (PyTorch) و تنسرفلو (TensorFlow).

تطبيقات واقعية

إن كفاءة آدم وقوته تجعله مناسبًا لمجموعة واسعة من التطبيقات.

  1. تدريب نماذج اللغة الكبيرة (LLMs): يعتبر Adam ومتغيراته أمرًا بالغ الأهمية لتدريب النماذج الضخمة في معالجة اللغات الطبيعية (NLP). بالنسبة لنماذج مثل GPT-4 أو تلك الموجودة في Hugging Face، فإن كفاءة Adam تجعل من الممكن معالجة مجموعات بيانات نصية هائلة من مصادر مثل Wikipedia وتعلم أنماط لغوية معقدة. إن قدرته على التنقل في مناظر الخسارة (loss landscapes) المعقدة ضرورية لتحقيق النجاح.
  2. تصنيف الصور واكتشاف الكائنات: في رؤية الكمبيوتر (CV)، يُستخدم Adam على نطاق واسع لتدريب شبكات عصبية التفافية عميقة (CNNs) على مجموعات بيانات صور كبيرة مثل ImageNet أو COCO. فهو يساعد نماذج تصنيف الصور و اكتشاف الكائنات على التقارب بسرعة، مما يسرع التطوير ودورات ضبط المعلمات الفائقة.

الاستخدام في Ultralytics YOLO

ضمن نظام Ultralytics البيئي، يتوفر Adam ومتغيره AdamW كمحسِّنين لتدريب نماذج Ultralytics YOLO. يمكن أن يؤدي الاستفادة من معدلات تعلم Adam التكيفية إلى تسريع التقارب أثناء تدريب نماذج اكتشاف الكائنات، وتجزئة المثيلات، أو نماذج تقدير الوضعية مثل YOLO11 أو YOLOv10. في حين أن SGD غالبًا ما يكون المحسن الافتراضي والموصى به لبعض نماذج YOLO نظرًا لتحسين التعميم النهائي المحتمل، إلا أن Adam يوفر بديلاً قويًا، ومفيدًا بشكل خاص أثناء التجريب الأولي. يمكنك بسهولة تكوين المُحسِّن وإعدادات التدريب الأخرى. تعمل أدوات مثل Ultralytics HUB على تبسيط العملية، مما يسمح للمستخدمين بتدريب النماذج باستخدام مُحسِّنات مختلفة، بما في ذلك Adam، إما محليًا أو عبر التدريب السحابي. توفر أطر العمل مثل PyTorch و TensorFlow تطبيقات قياسية لـ Adam، والتي يتم استخدامها داخل إطار Ultralytics.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة