يولو فيجن شنتشن
شنتشن
انضم الآن

ما هو التجاوز في الرؤية الحاسوبية وكيفية منعه؟

عبد الرحمن الجندي

6 دقائق قراءة

13 مارس، 2025

تعرّف على مفهوم "التدريب المفرط" في الرؤية الحاسوبية وكيفية منعه باستخدام زيادة البيانات والتسوية والنماذج المدربة مسبقًا.

تم تصميم نماذج الرؤية الحاسوبية للتعرف على الأنماط واكتشاف الكائنات وتحليل الصور. ومع ذلك، يعتمد أداؤها على مدى قدرتها على التعميم على البيانات غير المرئية. التعميم هو قدرة النموذج على العمل بشكل جيد على الصور الجديدة، وليس فقط تلك التي تم تدريبه عليها. من المشكلات الشائعة في تدريب هذه النماذج التدريب المفرط، حيث يتعلم النموذج الكثير من بيانات التدريب الخاصة به، بما في ذلك الضوضاء غير الضرورية، بدلاً من تحديد الأنماط الهادفة.

عندما يحدث هذا، يكون أداء النموذج جيدًا على بيانات التدريب ولكنه يعاني مع الصور الجديدة. على سبيل المثال، قد يفشل نموذج اكتشاف الكائنات الذي تم تدريبه فقط على صور عالية الدقة ومضاءة جيدًا عند عرضه صورًا ضبابية أو مظللة في ظروف العالم الحقيقي. يحد التجاوز من قدرة النموذج على التكيف، مما يحد من استخدامه في تطبيقات العالم الحقيقي مثل القيادة الذاتية والتصوير الطبي وأنظمة الأمان.

في هذه المقالة، سوف نستكشف ماهية فرط التخصيص، وسبب حدوثه، وكيفية منعه. وسوف نلقي نظرة أيضًا على كيف تساعد نماذج الرؤية الحاسوبية مثل Ultralytics YOLO11 في تقليل فرط التخصيص وتحسين التعميم.

ما هو فرط التخصيص (Overfitting)؟

يحدث التحيز الزائد عندما يحفظ النموذج بيانات التدريب بدلاً من تعلم الأنماط التي تنطبق على نطاق واسع على المدخلات الجديدة. يصبح النموذج شديد التركيز على بيانات التدريب، لذلك يواجه صعوبة في التعامل مع الصور أو المواقف الجديدة التي لم يرها من قبل.

في مجال رؤية الحاسوب، يمكن أن يؤثر فرط التعلّم (Overfitting) على مهام مختلفة. قد يواجه نموذج التصنيف الذي تم تدريبه فقط على صور مشرقة وواضحة صعوبة في ظروف الإضاءة المنخفضة. قد يفشل نموذج الكشف عن الأجسام الذي يتعلم من صور مثالية في المشاهد المزدحمة أو الفوضوية. وبالمثل، قد يعمل نموذج تجزئة المثيلات (Instance Segmentation) بشكل جيد في البيئات الخاضعة للرقابة ولكنه يواجه مشكلة في التعامل مع الظلال أو الأجسام المتداخلة.

تصبح هذه مشكلة في تطبيقات الذكاء الاصطناعي في العالم الحقيقي، حيث يجب أن تكون النماذج قادرة على التعميم خارج ظروف التدريب الخاضعة للرقابة. يجب أن تكون السيارات ذاتية القيادة، على سبيل المثال، قادرة على اكتشاف المشاة في ظروف إضاءة وأحوال جوية وبيئات مختلفة. النموذج الذي يفرط في ملاءمة مجموعة التدريب الخاصة به لن يعمل بشكل موثوق في مثل هذه السيناريوهات غير المتوقعة.

متى ولماذا يحدث فرط التخصيص (Overfitting)؟

يحدث التحيز الزائد عادةً بسبب مجموعات البيانات غير المتوازنة وتعقيد النموذج المفرط والتدريب المفرط. فيما يلي الأسباب الرئيسية:

  • بيانات تدريب محدودة: تجعل مجموعات البيانات الصغيرة النماذج تحفظ الأنماط بدلاً من تعميمها. قد يواجه النموذج المدرب على 50 صورة فقط للطيور صعوبة في اكتشاف أنواع الطيور خارج مجموعة البيانات هذه.

  • نماذج معقدة ذات عدد كبير جدًا من المعلمات: تميل الشبكات العميقة ذات الطبقات والخلايا العصبية المفرطة إلى حفظ التفاصيل الدقيقة بدلاً من التركيز على الميزات الأساسية.

  • نقص في زيادة البيانات: بدون تحويلات مثل الاقتصاص أو التقليب أو التدوير، قد يتعلم النموذج فقط من صور التدريب الدقيقة الخاصة به.

  • تدريب مطول: إذا مر النموذج ببيانات التدريب عدة مرات، وهو ما يعرف باسم الحقب، فإنه يحفظ التفاصيل بدلاً من تعلم الأنماط العامة، مما يجعله أقل قدرة على التكيف.

  • علامات غير متناسقة أو مشوشة: تتسبب البيانات التي تحمل علامات غير صحيحة في تعلم النموذج لأنماط خاطئة. وهذا شائع في مجموعات البيانات التي يتم تصنيفها يدويًا.

يضمن اتباع نهج متوازن تجاه تعقيد النموذج وجودة مجموعة البيانات وتقنيات التدريب تعميمًا أفضل.

التحيز الزائد مقابل التحيز الناقص

التحيز الزائد والتحيز الناقص هما قضيتان قطبيتان تمامًا في التعلم العميق.

__wf_reserved_inherit
الشكل 1. مقارنة بين النقص في التوفيق (underfitting)، والتعلّم الأمثل، والإفراط في التوفيق (overfitting) في نماذج رؤية الحاسوب.

يحدث التحيز الزائد عندما يكون النموذج معقدًا للغاية، مما يجعله يركز بشكل مفرط على بيانات التدريب. بدلاً من تعلم الأنماط العامة، فإنه يحفظ التفاصيل الصغيرة، حتى غير ذات الصلة مثل ضوضاء الخلفية. يتسبب هذا في أداء النموذج بشكل جيد على بيانات التدريب ولكنه يواجه صعوبة في التعامل مع الصور الجديدة، مما يعني أنه لم يتعلم حقًا كيفية التعرف على الأنماط التي تنطبق في مواقف مختلفة.

يحدث النقص في التوفيق (Underfitting) عندما يكون النموذج بسيطًا جدًا، لذلك يفوت الأنماط المهمة في البيانات. يمكن أن يحدث هذا عندما يكون لدى النموذج عدد قليل جدًا من الطبقات، أو وقت تدريب غير كافٍ، أو البيانات محدودة. ونتيجة لذلك، فإنه يفشل في التعرف على الأنماط المهمة ويقدم تنبؤات غير دقيقة. يؤدي هذا إلى ضعف الأداء على كل من بيانات التدريب والاختبار لأن النموذج لم يتعلم بما يكفي لفهم المهمة بشكل صحيح. 

يجد النموذج المدرب جيدًا التوازن بين التعقيد والتعميم. يجب أن يكون معقدًا بدرجة كافية لتعلم الأنماط ذات الصلة ولكن ليس معقدًا لدرجة أنه يحفظ البيانات بدلاً من التعرف على العلاقات الأساسية.

كيفية تحديد فرط التعلّم

إليك بعض العلامات التي تشير إلى أن النموذج يعاني من فرط التعلّم:

  • إذا كانت دقة التدريب أعلى بكثير من دقة التحقق، فمن المحتمل أن يكون النموذج يعاني من فرط التخصيص (overfitting).
  • هناك فجوة متزايدة بين خسارة التدريب وخسارة التحقق وهي مؤشر قوي آخر.
  • النموذج واثق جدًا من الإجابات الخاطئة، مما يدل على أنه حفظ التفاصيل بدلاً من فهم الأنماط.

لضمان تعميم النموذج بشكل جيد، يجب اختباره على مجموعات بيانات متنوعة تعكس ظروف العالم الحقيقي.

كيفية منع فرط التعلّم في الرؤية الحاسوبية

التحيز الزائد ليس حتميًا ويمكن منعه. باستخدام التقنيات الصحيحة، يمكن لنماذج رؤية الكمبيوتر أن تتعلم الأنماط العامة بدلاً من حفظ بيانات التدريب، مما يجعلها أكثر موثوقية في التطبيقات الواقعية. 

إليك خمس استراتيجيات رئيسية لمنع فرط التخصيص في رؤية الكمبيوتر.

زيادة تنوع البيانات عن طريق الزيادة والبيانات الاصطناعية

أفضل طريقة لمساعدة النموذج على العمل بشكل جيد على بيانات جديدة هي توسيع مجموعة البيانات باستخدام زيادة البيانات و البيانات الاصطناعية. البيانات الاصطناعية يتم إنشاؤها بواسطة الكمبيوتر بدلاً من جمعها من صور العالم الحقيقي. فهي تساعد في سد الثغرات عندما لا تتوفر بيانات حقيقية كافية.

__wf_reserved_inherit
الشكل 2. الجمع بين البيانات الواقعية والاصطناعية يقلل من التجاوز في التدريب ويحسن دقة الكشف عن الكائنات.

تعمل زيادة البيانات على تغيير الصور الموجودة بشكل طفيف عن طريق قلبها أو تدويرها أو اقتصاصها أو تعديل السطوع، بحيث لا يحفظ النموذج التفاصيل فحسب، بل يتعلم أيضًا التعرف على الكائنات في مواقف مختلفة.

تكون البيانات الاصطناعية مفيدة عندما يصعب الحصول على صور حقيقية. على سبيل المثال، يمكن لنماذج السيارات ذاتية القيادة أن تتدرب على مشاهد طرق مولدة بواسطة الكمبيوتر لتعلم كيفية اكتشاف الأجسام في مختلف الظروف الجوية والإضاءة. هذا يجعل النموذج أكثر مرونة وموثوقية دون الحاجة إلى آلاف الصور الواقعية.

تحسين تعقيد وهيكلة النموذج

الشبكة العصبية العميقة، وهي نوع من نماذج التعلم الآلي التي تحتوي على طبقات عديدة تعالج البيانات بدلاً من طبقة واحدة، ليست دائمًا أفضل. عندما يكون لدى النموذج عدد كبير جدًا من الطبقات أو المعلمات، فإنه يحفظ بيانات التدريب بدلاً من التعرف على أنماط أوسع. يمكن أن يساعد تقليل التعقيد غير الضروري في منع التجاوز.

لتحقيق ذلك، يتمثل أحد الأساليب في التقليم، الذي يزيل الخلايا العصبية والوصلات الزائدة، مما يجعل النموذج أكثر رشاقة وكفاءة. 

هناك طريقة أخرى وهي تبسيط البنية عن طريق تقليل عدد الطبقات أو الخلايا العصبية. تم تصميم النماذج المدربة مسبقًا مثل YOLO11 لتعميم المهام بشكل جيد عبر المهام بعدد أقل من المعلمات، مما يجعلها أكثر مقاومة للإفراط في التخصيص (overfitting) من تدريب نموذج عميق من البداية.

يساعد إيجاد التوازن الصحيح بين عمق النموذج وكفاءته على تعلم أنماط مفيدة دون مجرد حفظ بيانات التدريب.

تطبيق تقنيات التنظيم

تمنع تقنيات التنظيم النماذج من الاعتماد بشكل كبير على ميزات معينة في بيانات التدريب. فيما يلي بعض التقنيات شائعة الاستخدام:

  • Dropout يقوم بإيقاف تشغيل أجزاء عشوائية من النموذج أثناء التدريب حتى يتعلم التعرف على أنماط مختلفة بدلاً من الاعتماد بشكل كبير على عدد قليل من الميزات.

  • إخماد الوزن (تنظيم L2) يثبط قيم الوزن المتطرفة، مما يحافظ على تعقيد النموذج تحت السيطرة.

  • تطبيع الدُفعة يساعد على استقرار التدريب من خلال ضمان أن النموذج أقل حساسية للتغيرات في مجموعة البيانات.

تساعد هذه التقنيات في الحفاظ على مرونة النموذج وقدرته على التكيف، مما يقلل من خطر التجاوز مع الحفاظ على الدقة.

مراقبة التدريب مع التحقق من الصحة والإيقاف المبكر

لمنع فرط التجهيز، من المهم تتبع كيفية تعلم النموذج والتأكد من أنه يعمم بشكل جيد على البيانات الجديدة. فيما يلي بعض التقنيات للمساعدة في ذلك:

  • التوقف المبكر: ينهي التدريب تلقائيًا عندما يتوقف النموذج عن التحسن، لذلك لا يستمر في تعلم تفاصيل غير ضرورية.

  • التحقق المتبادل (Cross-validation): يقسم البيانات إلى أجزاء ويدرب النموذج على كل جزء. يساعد هذا النموذج على تعلم الأنماط بدلاً من حفظ صور معينة.

تساعد هذه التقنيات النموذج على البقاء متوازنًا حتى يتعلم ما يكفي ليكون دقيقًا دون أن يركز بشكل كبير على بيانات التدريب فقط.

استخدم النماذج المدربة مسبقًا وحسّن عملية تصنيف البيانات

بدلاً من التدريب من البداية، يمكن أن يقلل استخدام النماذج المدربة مسبقًا مثل YOLO11 من التجاوز في التوفيق (overfitting). يتم تدريب YOLO11 على مجموعات بيانات واسعة النطاق، مما يسمح له بالتعميم بشكل جيد عبر الظروف المختلفة.

__wf_reserved_inherit
الشكل 3. نماذج رؤية حاسوبية مدربة مسبقًا تعزز الدقة وتمنع التجاوز.

يساعد الضبط الدقيق لنموذج مُدرَّب مسبقًا في الحفاظ على ما يعرفه بالفعل أثناء تعلم مهام جديدة، حتى لا يقوم فقط بحفظ بيانات التدريب.

بالإضافة إلى ذلك، يعد ضمان وضع العلامات على مجموعة البيانات عالية الجودة أمرًا ضروريًا. يمكن للبيانات التي تحمل علامات خاطئة أو غير متوازنة أن تضلل النماذج لتعلم أنماط غير صحيحة. يؤدي تنظيف مجموعات البيانات وإصلاح الصور التي تحمل علامات خاطئة وموازنة الفئات إلى تحسين الدقة وتقليل خطر التجاوز. هناك طريقة فعالة أخرى وهي التدريب العدائي، حيث يتعرض النموذج لأمثلة معدلة قليلاً أو أكثر تحديًا مصممة لاختبار حدوده.

النقاط الرئيسية

التحيز الزائد مشكلة شائعة في رؤية الكمبيوتر. قد يعمل النموذج بشكل جيد على بيانات التدريب ولكنه يواجه صعوبة في التعامل مع الصور الواقعية. لتجنب ذلك، تساعد تقنيات مثل زيادة البيانات والتنظيم واستخدام النماذج المدربة مسبقًا مثل YOLO11 على تحسين الدقة والقدرة على التكيف.

من خلال تطبيق هذه الطرق، يمكن لنماذج الذكاء الاصطناعي أن تظل موثوقة وتعمل بشكل جيد في بيئات مختلفة. مع تحسن التعلم العميق، سيكون التأكد من أن النماذج تعمم بشكل صحيح أمرًا أساسيًا لنجاح الذكاء الاصطناعي في العالم الحقيقي.

انضم إلى مجتمعنا المتنامي! استكشف مستودع GitHub الخاص بنا لمعرفة المزيد حول الذكاء الاصطناعي. هل أنت مستعد لبدء مشاريع الرؤية الحاسوبية الخاصة بك؟ تحقق من خيارات الترخيص الخاصة بنا. اكتشف Vision AI في القيادة الذاتية و الذكاء الاصطناعي في الرعاية الصحية من خلال زيارة صفحات الحلول الخاصة بنا!

لنبنِ مستقبل
الذكاء الاصطناعي معًا!

ابدأ رحلتك مع مستقبل تعلم الآلة

ابدأ مجانًا
تم نسخ الرابط إلى الحافظة