استعدوا لـ YOLO Vision 2025!
25 سبتمبر، 2025
10:00 — 18:00 بتوقيت بريطانيا الصيفي
حدث هجين
مؤتمر Yolo Vision 2024

ما هو تحسين النموذج (Model Optimization)؟ دليل سريع

أبيرامي فينا

5 دقائق قراءة

15 نوفمبر 2024

تعرف على كيف يمكن لتقنيات تحسين النماذج مثل ضبط المعلمات الفائقة، وتقليم النماذج، وتكميم النماذج أن تساعد نماذج رؤية الحاسوب على العمل بكفاءة أكبر.

تحسين النموذج هو عملية تهدف إلى تحسين كفاءة وأداء نماذج التعلم الآلي. من خلال تحسين هيكل ووظيفة النموذج، يتيح التحسين للنماذج تقديم نتائج أفضل بأقل الموارد الحسابية وتقليل وقت التدريب والتقييم.

تعتبر هذه العملية مهمة بشكل خاص في مجالات مثل رؤية الحاسوب، حيث غالبًا ما تتطلب النماذج موارد كبيرة لتحليل الصور المعقدة. في البيئات محدودة الموارد مثل الأجهزة المحمولة أو الأنظمة الطرفية، يمكن للنماذج المحسنة أن تعمل بشكل جيد مع موارد محدودة مع الحفاظ على دقتها.

تُستخدم العديد من التقنيات لتحقيق تحسين النموذج، بما في ذلك ضبط المعلمات الفائقة، وتقليم النموذج، وتكميم النموذج، والدقة المختلطة. في هذه المقالة، سوف نستكشف هذه التقنيات والفوائد التي تجلبها إلى تطبيقات رؤية الكمبيوتر. هيا بنا نبدأ!

فهم تحسين النموذج

عادةً ما تحتوي نماذج رؤية الحاسوب على طبقات عميقة وهياكل معقدة تعتبر رائعة للتعرف على الأنماط المعقدة في الصور، ولكنها قد تكون أيضًا متطلبة جدًا من حيث قوة المعالجة. عندما يتم نشر هذه النماذج على الأجهزة ذات الأجهزة المحدودة، مثل الهواتف المحمولة أو الأجهزة الطرفية، فإنها قد تواجه بعض التحديات أو القيود. 

يمكن أن يؤدي محدودية قوة المعالجة والذاكرة والطاقة في هذه الأجهزة إلى انخفاضات ملحوظة في الأداء، حيث تكافح النماذج لمواكبة ذلك. تعتبر تقنيات تحسين النموذج أساسية لمعالجة هذه المخاوف. فهي تساعد على تبسيط النموذج وتقليل احتياجاته الحسابية والتأكد من أنه لا يزال بإمكانه العمل بفعالية، حتى مع الموارد المحدودة. يمكن إجراء تحسين النموذج عن طريق تبسيط هندسة النموذج، أو تقليل دقة العمليات الحسابية، أو إزالة المكونات غير الضرورية لجعل النموذج أخف وزنا وأسرع.

__wf_reserved_inherit
الشكل 1. أسباب تحسين النماذج الخاصة بك. صورة للمؤلف.

فيما يلي بعض تقنيات تحسين النماذج الأكثر شيوعًا، والتي سنستكشفها بمزيد من التفصيل في الأقسام التالية:

  • ضبط المعلمات الفائقة: يتضمن ضبط المعلمات الفائقة بشكل منهجي، مثل معدل التعلم وحجم الدفعة، لتحسين أداء النموذج.
  • تقليم النموذج: تزيل هذه التقنية الأوزان والوصلات غير الضرورية من الشبكة العصبية، مما يقلل من تعقيدها وتكلفتها الحسابية.
  • تكميم النموذج: يتضمن التكميم تقليل دقة أوزان النموذج وتنشيطاته، عادةً من 32 بت إلى 16 بت أو 8 بت، مما يقلل بشكل كبير من حجم الذاكرة ومتطلبات الحساب.
  • تعديلات الدقة: يُعرف أيضًا باسم التدريب المختلط الدقة، ويتضمن استخدام تنسيقات دقة مختلفة لأجزاء مختلفة من النموذج وتحسين استخدام الموارد دون المساس بالدقة.

تم الشرح: المعلمات الفائقة في نماذج تعلم الآلة

يمكنك مساعدة النموذج على التعلم والأداء بشكل أفضل عن طريق ضبط المعلمات الفائقة (hyperparameters) الخاصة به - وهي الإعدادات التي تحدد كيفية تعلم النموذج من البيانات. ضبط المعلمات الفائقة هو أسلوب لتحسين هذه الإعدادات، وتحسين كفاءة النموذج و دقته. على عكس المعلمات التي يتعلمها النموذج أثناء التدريب، فإن المعلمات الفائقة هي قيم محددة مسبقًا توجه عملية التدريب.

دعنا نستعرض بعض الأمثلة للمعلمات الفائقة التي يمكن ضبطها:

  • معدل التعلم: تتحكم هذه المعلمة في حجم الخطوة التي يتخذها النموذج لضبط أوزانه الداخلية. يمكن لمعدل التعلم الأعلى تسريع التعلم ولكنه يخاطر بفقدان الحل الأمثل، في حين أن المعدل الأقل قد يكون أكثر دقة ولكنه أبطأ.
  • حجم الدفعة: يحدد عدد عينات البيانات التي تتم معالجتها في كل خطوة تدريب. توفر أحجام الدفعات الأكبر تعلمًا أكثر استقرارًا ولكنها تحتاج إلى مزيد من الذاكرة. تتدرب الدفعات الأصغر بشكل أسرع ولكنها قد تكون أقل استقرارًا.
  • Epochs: يمكنك تحديد عدد المرات التي يرى فيها النموذج مجموعة البيانات الكاملة باستخدام هذه المعلمة. يمكن أن تؤدي المزيد من الحقب إلى تحسين الدقة ولكنها قد تؤدي إلى خطر التجاوز.
  • حجم النواة: يحدد حجم المرشح في الشبكات العصبية الالتفافية (CNNs). تلتقط النواة الأكبر أنماطًا أوسع ولكنها تحتاج إلى مزيد من المعالجة؛ تركز النواة الأصغر على التفاصيل الدقيقة.

كيف يعمل ضبط المعلمات الفائقة؟

عادةً ما يبدأ ضبط المعلمات الفائقة بتحديد نطاق من القيم المحتملة لكل معلمة فائقة. ثم تستكشف خوارزمية البحث مجموعات مختلفة ضمن هذه النطاقات لتحديد الإعدادات التي تحقق أفضل أداء

تتضمن طرق الضبط الشائعة البحث الشبكي والبحث العشوائي والتحسين البايزي. يختبر البحث الشبكي كل مجموعة ممكنة من القيم ضمن النطاقات المحددة. يختار البحث العشوائي مجموعات عشوائيًا، وغالبًا ما يجد إعدادات فعالة بسرعة أكبر. يستخدم التحسين البايزي نموذجًا احتماليًا للتنبؤ بقيم المعلمات الفائقة الواعدة بناءً على النتائج السابقة. يقلل هذا النهج عادةً من عدد المحاولات المطلوبة. 

في النهاية، لكل تركيبة من المعلمات الفائقة، يتم تقييم أداء النموذج. وتتكرر العملية حتى تتحقق النتائج المرجوة.

المعلمات الفائقة مقابل معلمات النموذج

أثناء العمل على ضبط المعلمات الفائقة، قد تتساءل ما هو الفرق بين المعلمات الفائقة و معلمات النموذج

المعلمات الفائقة (Hyperparameters) هي قيم يتم تحديدها قبل التدريب وتتحكم في كيفية تعلم النموذج، مثل معدل التعلم أو حجم الدفعة. يتم تثبيت هذه الإعدادات أثناء التدريب وتؤثر بشكل مباشر على عملية التعلم. من ناحية أخرى، يتم تعلم معلمات النموذج (Model parameters) بواسطة النموذج نفسه أثناء التدريب. وتشمل هذه الأوزان و التحيزات، التي تتكيف مع تدريب النموذج وتوجه تنبؤاته في النهاية. باختصار، تشكل المعلمات الفائقة رحلة التعلم، في حين أن معلمات النموذج هي نتائج عملية التعلم هذه.

__wf_reserved_inherit
الشكل 2. مقارنة بين المعلمات (Parameters) والمعلمات الفائقة (Hyperparameters). 

لماذا يعتبر تقليم النموذج مهمًا في التعلم العميق

تقليم النموذج هو أسلوب لتقليل الحجم يزيل الأوزان والمعلمات غير الضرورية من النموذج، مما يجعله أكثر كفاءة. في رؤية الكمبيوتر، خاصة مع الشبكات العصبية العميقة، يمكن لعدد كبير من المعلمات، مثل الأوزان والتنشيطات (المخرجات الوسيطة التي تساعد في حساب المخرجات النهائية)، أن يزيد من التعقيد والمتطلبات الحسابية. يساعد التقليم على تبسيط النموذج عن طريق تحديد وإزالة المعلمات التي تساهم بأقل قدر في الأداء، مما يؤدي إلى نموذج أكثر خفة وفعالية.

__wf_reserved_inherit
الشكل 3. قبل وبعد تقليم النموذج.

بعد تدريب النموذج، يمكن لتقنيات مثل التقليم المستند إلى الحجم أو تحليل الحساسية تقييم أهمية كل معلمة. ثم يتم تقليم المعلمات منخفضة الأهمية، باستخدام إحدى التقنيات الرئيسية الثلاث: تقليم الأوزان، أو تقليم الخلايا العصبية، أو التقليم المنظم. 

يزيل تقليم الأوزان الاتصالات الفردية بأقل تأثير على الإخراج. يزيل تقليم الخلايا العصبية الخلايا العصبية بأكملها التي تساهم مخرجاتها قليلاً في وظيفة النموذج. يزيل التقليم المنظم أقسامًا أكبر، مثل مرشحات الالتفاف أو الخلايا العصبية في الطبقات المتصلة بالكامل، مما يحسن كفاءة النموذج. بمجرد اكتمال التقليم، يتم إعادة تدريب النموذج لضبط المعلمات المتبقية، مما يضمن احتفاظه بدقة عالية في شكل مخفض.

تقليل زمن الوصول في نماذج الذكاء الاصطناعي باستخدام التكميم

يقلل تكميم النموذج من عدد البتات المستخدمة لتمثيل أوزان النموذج وتنشيطاته. وعادةً ما يحول قيم الفاصلة العائمة ذات 32 بت عالية الدقة إلى دقة أقل، مثل الأعداد الصحيحة ذات 16 بت أو 8 بت. من خلال تقليل دقة البت، يقلل التكميم بشكل كبير من حجم النموذج، ومساحة الذاكرة، والتكلفة الحسابية.

في الرؤية الحاسوبية، تعتبر الفواصل العشرية 32 بت قياسية، ولكن التحويل إلى 16 بت أو 8 بت يمكن أن يحسن الكفاءة. هناك نوعان أساسيان من التكميم: تكميم الأوزان وتكميم التنشيط. يقلل تكميم الأوزان من دقة أوزان النموذج، مما يوازن بين تقليل الحجم والدقة. يقلل تكميم التنشيط من دقة التنشيطات، مما يقلل بشكل أكبر من متطلبات الذاكرة والحساب.

__wf_reserved_inherit
الشكل 4. مثال على التكميم من فاصلة عائمة 32 بت إلى عدد صحيح 8 بت.

كيف تعمل الدقة المختلطة على تسريع استدلالات الذكاء الاصطناعي؟

الدقة المختلطة هي تقنية تستخدم دقة رقمية مختلفة لأجزاء مختلفة من شبكة عصبية. من خلال الجمع بين قيم الدقة الأعلى، مثل الأرقام العشرية 32 بت، مع قيم الدقة الأقل، مثل الأرقام العشرية 16 بت أو 8 بت، تجعل الدقة المختلطة من الممكن لـ نماذج رؤية الكمبيوتر تسريع التدريب وتقليل استخدام الذاكرة دون التضحية بالدقة.

أثناء التدريب، يتم تحقيق الدقة المختلطة باستخدام دقة أقل في طبقات معينة مع الحفاظ على دقة أعلى حيثما دعت الحاجة عبر الشبكة. يتم ذلك من خلال الصب وتوسيع نطاق الخسارة. يحول الصب أنواع البيانات بين الدقات المختلفة حسب متطلبات النموذج. يضبط توسيع نطاق الخسارة الدقة المنخفضة لمنع التدفق السفلي العددي، مما يضمن تدريبًا مستقرًا. الدقة المختلطة مفيدة بشكل خاص للنماذج الكبيرة وأحجام الدُفعات الكبيرة.

__wf_reserved_inherit
الشكل 5. يستخدم التدريب المختلط الدقة كلاً من أنواع الفاصلة العائمة 16 بت (FP16) و 32 بت (FP32).

الموازنة بين دقة النموذج وكفاءته

الآن بعد أن غطينا العديد من تقنيات تحسين النموذج، دعنا نناقش كيفية تحديد التقنية التي يجب استخدامها بناءً على احتياجاتك الخاصة. يعتمد الاختيار على عوامل مثل الأجهزة المتاحة، والقيود الحسابية والذاكرة لـ بيئة النشر، ومستوى الدقة المطلوب. 

على سبيل المثال، النماذج الأصغر والأسرع هي الأنسب للأجهزة المحمولة ذات الموارد المحدودة، في حين يمكن استخدام النماذج الأكبر والأكثر دقة على الأنظمة عالية الأداء. إليك كيف تتماشى كل تقنية مع أهداف مختلفة:

  • التقليم: إنه مثالي لتقليل حجم النموذج دون التأثير بشكل كبير على الدقة، مما يجعله مثاليًا للأجهزة ذات الموارد المحدودة مثل الهواتف المحمولة أو أجهزة إنترنت الأشياء (IoT).
  • التكميم (Quantization): خيار رائع لتقليل حجم النموذج وتسريع الاستدلال (Inference)، خاصة على الأجهزة المحمولة و الأنظمة المدمجة (Embedded Systems) ذات الذاكرة المحدودة وقوة المعالجة. يعمل بشكل جيد للتطبيقات التي تكون فيها التخفيضات الطفيفة في الدقة مقبولة.
  • الدقة المختلطة: صُممت هذه التقنية للنماذج واسعة النطاق، وهي تقلل من استخدام الذاكرة وتسرع التدريب على الأجهزة مثل وحدات معالجة الرسومات (GPUs) و وحدات معالجة Tensor (TPUs) التي تدعم عمليات الدقة المختلطة. غالبًا ما تستخدم في المهام عالية الأداء حيث تهم الكفاءة.
  • ضبط المعلمات الفائقة: على الرغم من أنه مكلف حسابيًا، إلا أنه ضروري للتطبيقات التي تتطلب دقة عالية، مثل التصوير الطبي أو القيادة الذاتية.

النقاط الرئيسية

يعد تحسين النموذج جزءًا حيويًا من التعلم الآلي، خاصةً لنشر الذكاء الاصطناعي في التطبيقات الواقعية. تساعد تقنيات مثل ضبط المعلمات الفائقة وتقليم النموذج والتكميم والدقة المختلطة على تحسين الأداء والكفاءة واستخدام الموارد لنماذج رؤية الكمبيوتر. هذه التحسينات تجعل النماذج أسرع وأقل استهلاكًا للموارد، وهو أمر مثالي للأجهزة ذات الذاكرة المحدودة وقوة المعالجة. كما أن النماذج المحسّنة أسهل في التوسع والنشر عبر منصات مختلفة، مما يتيح حلول الذكاء الاصطناعي الفعالة والقابلة للتكيف مع مجموعة واسعة من الاستخدامات.

تفضل بزيارة مستودع GitHub الخاص بـ Ultralytics وانضم إلى مجتمعنا لمعرفة المزيد حول تطبيقات الذكاء الاصطناعي في التصنيع و الزراعة.

لنبنِ مستقبل
الذكاء الاصطناعي معًا!

ابدأ رحلتك مع مستقبل تعلم الآلة

ابدأ مجانًا
تم نسخ الرابط إلى الحافظة