مسرد المصطلحات

خوارزمية التحسين

اكتشف كيف تعمل خوارزميات التحسين على تحسين أداء الذكاء الاصطناعي والتعلم الآلي، بدءاً من تدريب الشبكات العصبية إلى تطبيقات العالم الحقيقي في مجال الرعاية الصحية والزراعة.

خوارزمية التحسين هي المحرك الذي يقود عملية التعلم في التعلم الآلي والتعلم العميق. ويتمثل دورها الأساسي في تعديل المعلمات الداخلية للنموذج بشكل متكرر، مثل الأوزان والانحيازات، لتقليل دالة الخسارة إلى الحد الأدنى. اعتبرها طريقة منهجية لإيجاد أفضل مجموعة ممكنة من المعلمات التي تجعل تنبؤات النموذج أكثر دقة. هذه العملية أساسية لتدريب النموذج، حيث إنها تحوّل نموذجًا عامًا إلى أداة متخصصة قادرة على حل مهمة محددة، مثل اكتشاف الأجسام أو تجزئة الصور.

كيفية عمل خوارزميات التحسين

في جوهرها، تتنقل خوارزمية التحسين في "مشهد الخسارة"، وهو فضاء عالي الأبعاد حيث تمثل كل نقطة مجموعة من معلمات النموذج، ويقابل ارتفاع النقطة خطأ النموذج. الهدف هو إيجاد أدنى نقطة أو "الحد الأدنى" في هذا المشهد. تبدأ الخوارزمية بمجموعة أولية من المعلمات العشوائية، وفي كل خطوة (أو حقبة)، تحسب تدرج دالة الخسارة. يشير هذا الانحدار في اتجاه الصعود الأكثر انحدارًا، لذلك تأخذ الخوارزمية خطوة في الاتجاه المعاكس للهبوط في المشهد.

يتم التحكم في حجم هذه الخطوة من خلال معيار مفرط حاسم يسمى معدل التعلم. يضمن معدل التعلم الذي يتم اختياره بشكل جيد أن يتعلم النموذج بكفاءة دون تجاوز الحد الأدنى أو التعثر. تُعرَف هذه العملية التكرارية لحساب التدرجات وتحديث المعلمات باسم الترحيل العكسي وتستمر حتى يتوقف أداء النموذج على مجموعة بيانات التحقق من الصحة عن التحسن، مما يشير إلى التقارب.

أنواع خوارزميات التحسين الشائعة

وقد تم تطوير العديد من خوارزميات التحسين لكل منها خصائص مختلفة. ومن أكثرها استخدامًا في التعلم العميق ما يلي:

  • نزول التدرج العشوائي (SGD): مُحسِّن كلاسيكي ومستخدم على نطاق واسع يقوم بتحديث المعلمات باستخدام التدرج من مجموعة فرعية صغيرة(دفعة) من بيانات التدريب. على الرغم من فعاليته، إلا أن أداءه قد يكون حساسًا لاختيار معدل التعلم. تساعد الاختلافات مثل SGD مع الزخم في تسريع التقارب.
  • مُحسِّن آدم: يحظى مُحسِّن التقدير اللحظي التكيفي (Adam) بشعبية كبيرة لأنه يجمع بين مزايا امتدادين آخرين من SGD: AdaGrad و RMSProp. يحسب معدلات التعلم التكيفي لكل معلم، مما يجعله قويًا وغالبًا ما يكون خيارًا افتراضيًا جيدًا للعديد من المشكلات. يشيع استخدام امتداد، AdamW، في نماذج المحولات الحديثة. تقدم أطر عمل مثل PyTorch و TensorFlow تطبيقات لهذه المُحسِّنات الشائعة.

يمكن أن يؤثر اختيار المُحسِّن بشكل كبير على سرعة التدريب والأداء النهائي للنموذج. في نظام Ultralytics، يمكن للمستخدمين تكوين المُحسِّن بسهولة أثناء إعداد التدريب.

التطبيقات الواقعية

تعمل خوارزميات التحسين خلف الكواليس في عدد لا يحصى من تطبيقات الذكاء الاصطناعي.

  1. تحليل الصور الطبية: عند تدريب الشبكة العصبية التلافيفية (CNN) للكشف عن الأورام في فحوصات الدماغ، تقوم خوارزمية التحسين مثل آدم بتعديل مرشحات الشبكة بشكل منهجي. وهي تعمل على تقليل الفرق بين مواقع الأورام المتوقعة للنموذج والتعليقات التوضيحية الحقيقية التي يقدمها أخصائيو الأشعة، مما يحسن دقة تشخيص النموذج. هذا عنصر أساسي في بناء حلول فعالة للذكاء الاصطناعي في مجال الرعاية الصحية.
  2. المركبات ذاتية القيادة: يجب أن يتعرف نموذج اكتشاف الأجسام في السيارة ذاتية القيادة، مثل نموذج Ultralytics YOLO، على المشاة والسيارات الأخرى وإشارات المرور بشكل موثوق. أثناء التدريب، يقوم المُحسِّن أثناء التدريب بضبط معلمات النموذج عبر ملايين الصور لتقليل أخطاء الاكتشاف (على سبيل المثال، الأجسام المفقودة أو التصنيفات غير الصحيحة)، وهو أمر بالغ الأهمية لضمان السلامة في أنظمة الذكاء الاصطناعي في السيارات.

خوارزميات التحسين مقابل المفاهيم ذات الصلة

من المهم التمييز بين خوارزميات التحسين ومفاهيم التعلم الآلي ذات الصلة:

  • خوارزمية التحسين مقابل ضبط المعلمة الفائقة: تقوم خوارزميات التحسين بضبط المعلمات الداخلية (الأوزان والتحيزات) للنموذج خلال التدريب. على النقيض من ذلك، يركز ضبط المعامل الفائق على إيجاد أفضل إعدادات التكوين الخارجي (مثل معدل التعلم، أو حجم الدفعة، أو حتى اختيار المُحسِّن نفسه) قبل يبدأ التدريب. يبدأ ألتراليتيكس Tuner الفئة أتمتة هذه العملية باستخدام طرق مثل الخوارزميات التطورية.
  • خوارزمية التحسين مقابل دالة الخسارة: تحدد دالة الخسارة مقدار خطأ النموذج. خوارزمية التحسين هي الآلية المستخدمة لتقليل هذا الخطأ. توفر دالة الخسارة الهدف، وتوفر خوارزمية التحسين استراتيجية الوصول إليه.
  • خوارزمية التحسين مقابل بنية النموذج: تحدد بنية النموذج بنية الشبكة العصبية (على سبيل المثال، طبقاتها واتصالاتها). وتعمل خوارزمية التحسين ضمن هذه البنية المحددة مسبقاً لتدريب معلمات الشبكة القابلة للتعلم. البحث عن البنية العصبية (NAS) هو مجال ذو صلة يقوم بأتمتة تصميم البنية نفسها.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون ونمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة