يولو فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

خوارزمية التحسين

اكتشف كيف تعمل خوارزميات التحسين على تحسين أداء الذكاء الاصطناعي والتعلم الآلي، بدءًا من تدريب الشبكات العصبية وحتى التطبيقات الواقعية في الرعاية الصحية والزراعة.

خوارزمية التحسين هي المحرك الذي يدفع عملية التعلم في التعلم الآلي (ML) و التعلم العميق. دورها الأساسي هو تعديل المعلمات الداخلية للنموذج بشكل متكرر، مثل الأوزان والانحيازات، لتقليل دالة الخسارة. فكر في الأمر على أنه طريقة منهجية للعثور على أفضل مجموعة ممكنة من المعلمات التي تجعل تنبؤات النموذج أكثر دقة. هذه العملية أساسية لتدريب النموذج، لأنها تحول نموذجًا عامًا إلى أداة متخصصة قادرة على حل مهمة معينة، مثل اكتشاف الكائنات أو تجزئة الصور.

كيف تعمل خوارزميات التحسين؟

في جوهرها، تتنقل خوارزمية التحسين في "مشهد الخسارة" - وهو فضاء عالي الأبعاد حيث تمثل كل نقطة مجموعة من معلمات النموذج ويتوافق ارتفاع النقطة مع خطأ النموذج. الهدف هو إيجاد أدنى نقطة، أو "الحد الأدنى"، في هذا المشهد. تبدأ الخوارزمية بمجموعة أولية من المعلمات العشوائية، وفي كل خطوة (أو حقبة)، تحسب تدرج دالة الخسارة. يشير هذا التدرج في اتجاه أشد صعود، لذلك تتخذ الخوارزمية خطوة في الاتجاه المعاكس لأسفل المشهد.

يتم التحكم في حجم هذه الخطوة بواسطة معامل فائق حرج يسمى معدل التعلم. يضمن معدل التعلم المختار جيدًا أن النموذج يتعلم بكفاءة دون تجاوز الحد الأدنى أو التعثر. تُعرف هذه العملية التكرارية لحساب التدرجات وتحديث المعلمات باسم الانتشار الخلفي وتستمر حتى يتوقف أداء النموذج على مجموعة بيانات التحقق عن التحسن، مما يشير إلى التقارب.

الأنواع الشائعة من خوارزميات التحسين

تم تطوير العديد من خوارزميات التحسين، ولكل منها خصائص مختلفة. بعض من الأكثر استخدامًا في التعلم العميق تشمل:

  • تدرج تنازلي تصادمي (SGD): مُحسِّن كلاسيكي ومستخدم على نطاق واسع يقوم بتحديث المعلمات باستخدام التدرج من مجموعة فرعية صغيرة (دفعة) من بيانات التدريب. على الرغم من فعاليته، إلا أن أداءه يمكن أن يكون حساسًا لاختيار معدل التعلم. تساعد الاختلافات مثل SGD مع الزخم في تسريع التقارب.
  • محسِّن Adam: يُعد محسِّن تقدير الزخم التكيفي (Adam) شائعًا للغاية لأنه يجمع بين مزايا امتدادين آخرين لـ SGD: AdaGrad و RMSProp. إنه يحسب معدلات تعلم تكيفية لكل معلمة، مما يجعله قويًا وغالبًا ما يكون خيارًا افتراضيًا جيدًا للعديد من المشكلات. يتم استخدام امتداد، AdamW، بشكل شائع في نماذج المحولات الحديثة. تقدم أُطر عمل مثل PyTorch و TensorFlow تطبيقات لهذه المحسنات الشائعة.

يمكن أن يؤثر اختيار المحسن بشكل كبير على كل من سرعة التدريب والأداء النهائي للنموذج. في النظام البيئي Ultralytics، يمكن للمستخدمين بسهولة تكوين المحسن أثناء إعداد التدريب.

تطبيقات واقعية

تعمل خوارزميات التحسين خلف الكواليس في عدد لا يحصى من تطبيقات الذكاء الاصطناعي.

  1. تحليل الصور الطبية: عند تدريب شبكة عصبية التفافية (CNN) للكشف عن الأورام في فحوصات الدماغ، تقوم خوارزمية تحسين مثل Adam بتعديل مرشحات الشبكة بشكل منهجي. وهي تعمل على تقليل الفرق بين مواقع الورم المتوقعة للنموذج والتعليقات التوضيحية للحقيقة الأساسية المقدمة من أخصائيي الأشعة، مما يحسن دقة النموذج التشخيصية. هذا هو المكون الأساسي لبناء حلول الذكاء الاصطناعي الفعالة في الرعاية الصحية.
  2. المركبات ذاتية القيادة: يجب أن يحدد نموذج الكشف عن الكائنات في سيارة ذاتية القيادة، مثل نموذج Ultralytics YOLO، المشاة والسيارات الأخرى وإشارات المرور بشكل موثوق. أثناء التدريب، يقوم المُحسِّن بضبط معلمات النموذج عبر ملايين الصور لتقليل أخطاء الاكتشاف (مثل الكائنات المفقودة أو التصنيفات غير الصحيحة)، وهو أمر بالغ الأهمية لضمان السلامة في الذكاء الاصطناعي في أنظمة السيارات.

خوارزميات التحسين مقابل المفاهيم ذات الصلة

من المهم التمييز بين خوارزميات التحسين ومفاهيم تعلم الآلة ذات الصلة:

  • خوارزمية التحسين مقابل ضبط المعلمات الفائقة: تقوم خوارزميات التحسين بضبط المعلمات الداخلية (الأوزان والانحيازات) الخاصة بالنموذج أثناء التدريب. في المقابل، يركز ضبط المعلمات الفائقة على إيجاد الأفضل إعدادات التكوين الخارجية (مثل معدل التعلم، أو حجم الدفعة، أو حتى اختيار المحسن نفسه) قبل يبدأ التدريب. ال Ultralytics Tuner فئة تقوم بأتمتة هذه العملية باستخدام طرق مثل الخوارزميات التطورية.
  • خوارزمية التحسين مقابل دالة الخسارة: دالة الخسارة تحدد كميًا خطأ النموذج. خوارزمية التحسين هي الآلية المستخدمة لتقليل هذا الخطأ. توفر دالة الخسارة الهدف، ويوفر المُحسِّن الاستراتيجية لتحقيقه.
  • خوارزمية التحسين مقابل هيكلة النموذج: تحدد هيكلة النموذج بنية الشبكة العصبية (مثل طبقاتها واتصالاتها). تعمل خوارزمية التحسين ضمن هذه البنية المحددة مسبقًا لتدريب معاملاتها القابلة للتعلّم. البحث عن الهيكلة العصبية (NAS) هو مجال ذو صلة يعمل على أتمتة تصميم الهيكلة نفسها.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة