Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

خوارزمية التحسين

اكتشف كيف تعمل خوارزميات التحسين على تحسين أداء الذكاء الاصطناعي والتعلم الآلي، بدءًا من تدريب الشبكات العصبية وحتى التطبيقات الواقعية في الرعاية الصحية والزراعة.

خوارزمية التحسين هي المحرك الأساسي الذي يقود عملية التدريب في التعلم الآلي (ML) و والتعلم العميق (DL). وظيفتها الأساسية هي تعديل المعلمات الداخلية للنموذج بشكل تكراري - وتحديداً أوزان النموذج وانحيازاته أوزان النموذج والتحيزات لتقليل الخطأ الناتج أثناء التنبؤات. يمكنك تخيل هذه العملية كمتنزه يحاول العثور على أدنى نقطة في منطقة ضبابية, ضبابية وجبلية. ترشد خوارزمية التحسين المتنزه إلى أسفل المنحدر، خطوة بخطوة، حتى يصل إلى قاع الوادي، وهو ما يمثل الحالة التي يتم فيها تقليل دالة الخسارة في النموذج دالة الخسارة للنموذج ودقته إلى أقصى حد.

كيف تعمل خوارزميات التحسين؟

ينطوي تدريب الشبكة العصبية على دورة مستمرة من التنبؤ وحساب الخطأ وتحديثات المعلمات. تتحكم خوارزمية التحسين في مرحلة "التحديث" من هذه الدورة. بعد أن يعالج النموذج دفعة من من بيانات التدريب، يقوم النظام بحساب الفرق بين المخرجات المتوقعة والهدف الفعلي، وهي قيمة تحددها دالة الخسارة.

باستخدام تقنية تسمى الترحيل العكسي، تقوم خوارزمية تحسب الخوارزمية التدرّج - وهو متجه يشير إلى اتجاه الزيادة الحادة في الخطأ. لتقليل الخطأ الخطأ، يقوم المُحسِّن بتحديث الأوزان في الاتجاه المعاكس لهذا التدرج. يتم تحديد حجم الخطوة المتخذة في هذا الاتجاه يتم تحديده من خلال تكوين حاسم يُعرف باسم معدل التعلم. إيجاد التوازن الصحيح هو المفتاح؛ فالخطوة الخطوة الكبيرة جدًا قد تتجاوز الحد الأدنى، في حين أن الخطوة الصغيرة جدًا قد تؤدي إلى تدريب بطيء بطيئة تستغرق العديد من الحقب الزمنية للتقارب. موارد شاملة شاملة مثل ملاحظات التحسين CS231n من جامعة ستانفورد توفر رؤى تقنية أعمق في هذه الديناميكيات.

الأنواع الشائعة من خوارزميات التحسين

لا يوجد مُحسِّن "واحد يناسب الجميع"، وتوفر الخوارزميات المختلفة مزايا مميزة اعتمادًا على البنية والبيانات.

  • نزول التدرج العشوائي (SGD): هذا أحد أكثر الأساليب الكلاسيكية. فبدلاً من حساب التدرج لمجموعة البيانات بأكملها، يقوم SGD بتحديث المعلمات باستخدام مثال واحد أو دفعة صغيرة. على الرغم من فعاليته الحسابية، إلا أنه قد يتأرجح أحيانًا أثناء التدريب.
  • مُحسِّنAdam يرمز إلى Adaptive Moment Estimation، يُستخدم Adam على نطاق واسع في الذكاء الاصطناعي الحديث لأنه يكيف معدل التعلم لكل معلمة على حدة. وهو يجمع بين مزايا امتدادين آخرين ل SGD المعروفين باسم AdaGrad و RMSProp، لتوفير تقارب أسرع أسرع.
  • AdamW: متغير من Adam يفصل بين تضاؤل الوزن وتحديث التدرج، مما يؤدي غالبًا إلى أداء تعميم أفضل. غالبًا ما يكون هذا هو الخيار الافتراضي لتدريب أحدث البنى المعمارية مثل المحولات و Ultralytics YOLO11 ونماذج YOLO11.

تطبيقات واقعية

تُعد خوارزميات التحسين هي خوارزميات العمل الصامتة وراء العديد من حلول الذكاء الاصطناعي المتطورة.

  1. المركبات ذاتية القيادة: في أنظمة السيارات ذاتية القيادة, يجب أن تحدد نماذج اكتشاف الأجسام المشاة والإشارات والمركبات الأخرى بدقة متناهية. خلال مرحلة التدريب، تقوم خوارزمية التحسين لضبط الشبكة لتقليل أخطاء الكشف عبر ملايين سيناريوهات القيادة. وهذا يضمن أن أنظمة السلامة الحرجة في الذكاء الاصطناعي في السيارات تعمل بشكل موثوق في الوقت الفعلي.
  2. تحليل الصور الطبية: عند تطوير أدوات الذكاء الاصطناعي في مجال الرعاية الصحية, مثل الكشف عن الأورام في فحوصات التصوير بالرنين المغناطيسي، فإن الدقة أمر بالغ الأهمية. يقوم المُحسِّنون بضبط مُحسِّنات شبكة عصبية تلافيفية (CNN) لتقليل السلبيات الكاذبة، مما يضمن أن يتعلم النموذج تمييز الأنسجة الخبيثة عن الأنسجة السليمة بفعالية.

التمييز بين المفاهيم ذات الصلة

من المفيد التفريق بين خوارزميات التحسين والمصطلحات الأخرى المشابهة الموجودة في سير عمل التعلم الآلي.

  • خوارزمية التحسين مقابل دالة الخسارة: تعمل دالة الخسارة بمثابة لوحة النتائج، حيث تقوم بحساب قيمة عددية تمثل الخطأ (على سبيل المثال، متوسط مربع الخطأ). خوارزمية التحسين هي الاستراتيجية التي تستخدم هذه النتيجة لضبط تكتيكات النموذج (الأوزان) من أجل لتحسين النتيجة في الجولة التالية.
  • خوارزمية التحسين مقابل خوارزمية التحسين. ضبط المعلمة الفائقة: تتعامل خوارزميات التحسين مع تعلم المعلمات الداخلية أثناء التدريب. أما ضبط المعلمة الفائقة يتضمن اختيار أفضل الإعدادات الخارجية - مثل اختيار المُحسِّن نفسه أو حجم الدُفعات أو معدل التعلُّم الأولي أو معدل التعلم الأولي - قبل بدء التدريب. أدوات مثل راي تيون غالبًا ما تستخدم لأتمتة البحث عن هذه التكوينات الخارجية.

تنفيذ التحسين في Python

When using high-level frameworks, selecting an optimization algorithm is often a single argument. The following example demonstrates how to specify the AdamW المُحسِّن عند تدريب YOLO11 باستخدام نموذج ultralytics الحزمة.

from ultralytics import YOLO

# Load the recommended YOLO11 model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 dataset using the AdamW optimization algorithm
# The 'optimizer' argument allows easy switching between SGD, Adam, AdamW, etc.
results = model.train(data="coco8.yaml", epochs=5, optimizer="AdamW")

بالنسبة للباحثين والمطورين الذين يتطلعون إلى تنفيذ حلقات مخصصة، فإن مكتبات مثل PyTorch و TensorFlow مجموعات واسعة النطاق من خوارزميات التحسين المبنية مسبقًا والتي يمكن دمجها بسهولة في أي بنية نموذجية.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن