تعرّف على مفهوم "التدريب المفرط" في الرؤية الحاسوبية وكيفية منعه باستخدام زيادة البيانات والتسوية والنماذج المدربة مسبقًا.
تعرّف على مفهوم "التدريب المفرط" في الرؤية الحاسوبية وكيفية منعه باستخدام زيادة البيانات والتسوية والنماذج المدربة مسبقًا.
تم تصميم نماذج الرؤية الحاسوبية للتعرف على الأنماط واكتشاف الكائنات وتحليل الصور. ومع ذلك، يعتمد أداؤها على مدى قدرتها على التعميم على البيانات غير المرئية. التعميم هو قدرة النموذج على العمل بشكل جيد على الصور الجديدة، وليس فقط تلك التي تم تدريبه عليها. من المشكلات الشائعة في تدريب هذه النماذج التدريب المفرط، حيث يتعلم النموذج الكثير من بيانات التدريب الخاصة به، بما في ذلك الضوضاء غير الضرورية، بدلاً من تحديد الأنماط الهادفة.
عندما يحدث هذا، يكون أداء النموذج جيدًا على بيانات التدريب ولكنه يعاني مع الصور الجديدة. على سبيل المثال، قد يفشل نموذج اكتشاف الكائنات الذي تم تدريبه فقط على صور عالية الدقة ومضاءة جيدًا عند عرضه صورًا ضبابية أو مظللة في ظروف العالم الحقيقي. يحد التجاوز من قدرة النموذج على التكيف، مما يحد من استخدامه في تطبيقات العالم الحقيقي مثل القيادة الذاتية والتصوير الطبي وأنظمة الأمان.
في هذه المقالة، سوف نستكشف ماهية فرط التخصيص، وسبب حدوثه، وكيفية منعه. وسوف نلقي نظرة أيضًا على كيف تساعد نماذج الرؤية الحاسوبية مثل Ultralytics YOLO11 في تقليل فرط التخصيص وتحسين التعميم.
يحدث التحيز الزائد عندما يحفظ النموذج بيانات التدريب بدلاً من تعلم الأنماط التي تنطبق على نطاق واسع على المدخلات الجديدة. يصبح النموذج شديد التركيز على بيانات التدريب، لذلك يواجه صعوبة في التعامل مع الصور أو المواقف الجديدة التي لم يرها من قبل.
في مجال رؤية الحاسوب، يمكن أن يؤثر فرط التعلّم (Overfitting) على مهام مختلفة. قد يواجه نموذج التصنيف الذي تم تدريبه فقط على صور مشرقة وواضحة صعوبة في ظروف الإضاءة المنخفضة. قد يفشل نموذج الكشف عن الأجسام الذي يتعلم من صور مثالية في المشاهد المزدحمة أو الفوضوية. وبالمثل، قد يعمل نموذج تجزئة المثيلات (Instance Segmentation) بشكل جيد في البيئات الخاضعة للرقابة ولكنه يواجه مشكلة في التعامل مع الظلال أو الأجسام المتداخلة.
تصبح هذه مشكلة في تطبيقات الذكاء الاصطناعي في العالم الحقيقي، حيث يجب أن تكون النماذج قادرة على التعميم خارج ظروف التدريب الخاضعة للرقابة. يجب أن تكون السيارات ذاتية القيادة، على سبيل المثال، قادرة على اكتشاف المشاة في ظروف إضاءة وأحوال جوية وبيئات مختلفة. النموذج الذي يفرط في ملاءمة مجموعة التدريب الخاصة به لن يعمل بشكل موثوق في مثل هذه السيناريوهات غير المتوقعة.
يحدث التحيز الزائد عادةً بسبب مجموعات البيانات غير المتوازنة وتعقيد النموذج المفرط والتدريب المفرط. فيما يلي الأسباب الرئيسية:
يضمن اتباع نهج متوازن تجاه تعقيد النموذج وجودة مجموعة البيانات وتقنيات التدريب تعميمًا أفضل.
التحيز الزائد والتحيز الناقص هما قضيتان قطبيتان تمامًا في التعلم العميق.

يحدث التحيز الزائد عندما يكون النموذج معقدًا للغاية، مما يجعله يركز بشكل مفرط على بيانات التدريب. بدلاً من تعلم الأنماط العامة، فإنه يحفظ التفاصيل الصغيرة، حتى غير ذات الصلة مثل ضوضاء الخلفية. يتسبب هذا في أداء النموذج بشكل جيد على بيانات التدريب ولكنه يواجه صعوبة في التعامل مع الصور الجديدة، مما يعني أنه لم يتعلم حقًا كيفية التعرف على الأنماط التي تنطبق في مواقف مختلفة.
يحدث النقص في التوفيق (Underfitting) عندما يكون النموذج بسيطًا جدًا، لذلك يفوت الأنماط المهمة في البيانات. يمكن أن يحدث هذا عندما يكون لدى النموذج عدد قليل جدًا من الطبقات، أو وقت تدريب غير كافٍ، أو البيانات محدودة. ونتيجة لذلك، فإنه يفشل في التعرف على الأنماط المهمة ويقدم تنبؤات غير دقيقة. يؤدي هذا إلى ضعف الأداء على كل من بيانات التدريب والاختبار لأن النموذج لم يتعلم بما يكفي لفهم المهمة بشكل صحيح.
يجد النموذج المدرب جيدًا التوازن بين التعقيد والتعميم. يجب أن يكون معقدًا بدرجة كافية لتعلم الأنماط ذات الصلة ولكن ليس معقدًا لدرجة أنه يحفظ البيانات بدلاً من التعرف على العلاقات الأساسية.
إليك بعض العلامات التي تشير إلى أن النموذج يعاني من فرط التعلّم:
لضمان تعميم النموذج بشكل جيد، يجب اختباره على مجموعات بيانات متنوعة تعكس ظروف العالم الحقيقي.
التحيز الزائد ليس حتميًا ويمكن منعه. باستخدام التقنيات الصحيحة، يمكن لنماذج رؤية الكمبيوتر أن تتعلم الأنماط العامة بدلاً من حفظ بيانات التدريب، مما يجعلها أكثر موثوقية في التطبيقات الواقعية.
إليك خمس استراتيجيات رئيسية لمنع فرط التخصيص في رؤية الكمبيوتر.
أفضل طريقة لمساعدة النموذج على العمل بشكل جيد على بيانات جديدة هي توسيع مجموعة البيانات باستخدام زيادة البيانات و البيانات الاصطناعية. البيانات الاصطناعية يتم إنشاؤها بواسطة الكمبيوتر بدلاً من جمعها من صور العالم الحقيقي. فهي تساعد في سد الثغرات عندما لا تتوفر بيانات حقيقية كافية.

تعمل زيادة البيانات على تغيير الصور الموجودة بشكل طفيف عن طريق قلبها أو تدويرها أو اقتصاصها أو تعديل السطوع، بحيث لا يحفظ النموذج التفاصيل فحسب، بل يتعلم أيضًا التعرف على الكائنات في مواقف مختلفة.
تكون البيانات الاصطناعية مفيدة عندما يصعب الحصول على صور حقيقية. على سبيل المثال، يمكن لنماذج السيارات ذاتية القيادة أن تتدرب على مشاهد طرق مولدة بواسطة الكمبيوتر لتعلم كيفية اكتشاف الأجسام في مختلف الظروف الجوية والإضاءة. هذا يجعل النموذج أكثر مرونة وموثوقية دون الحاجة إلى آلاف الصور الواقعية.
الشبكة العصبية العميقة، وهي نوع من نماذج التعلم الآلي التي تحتوي على طبقات عديدة تعالج البيانات بدلاً من طبقة واحدة، ليست دائمًا أفضل. عندما يكون لدى النموذج عدد كبير جدًا من الطبقات أو المعلمات، فإنه يحفظ بيانات التدريب بدلاً من التعرف على أنماط أوسع. يمكن أن يساعد تقليل التعقيد غير الضروري في منع التجاوز.
لتحقيق ذلك، يتمثل أحد الأساليب في التقليم، الذي يزيل الخلايا العصبية والوصلات الزائدة، مما يجعل النموذج أكثر رشاقة وكفاءة.
هناك طريقة أخرى وهي تبسيط البنية عن طريق تقليل عدد الطبقات أو الخلايا العصبية. تم تصميم النماذج المدربة مسبقًا مثل YOLO11 لتعميم المهام بشكل جيد عبر المهام بعدد أقل من المعلمات، مما يجعلها أكثر مقاومة للإفراط في التخصيص (overfitting) من تدريب نموذج عميق من البداية.
يساعد إيجاد التوازن الصحيح بين عمق النموذج وكفاءته على تعلم أنماط مفيدة دون مجرد حفظ بيانات التدريب.
تمنع تقنيات التنظيم النماذج من الاعتماد بشكل كبير على ميزات معينة في بيانات التدريب. فيما يلي بعض التقنيات شائعة الاستخدام:
تساعد هذه التقنيات في الحفاظ على مرونة النموذج وقدرته على التكيف، مما يقلل من خطر التجاوز مع الحفاظ على الدقة.
لمنع فرط التجهيز، من المهم تتبع كيفية تعلم النموذج والتأكد من أنه يعمم بشكل جيد على البيانات الجديدة. فيما يلي بعض التقنيات للمساعدة في ذلك:
تساعد هذه التقنيات النموذج على البقاء متوازنًا حتى يتعلم ما يكفي ليكون دقيقًا دون أن يركز بشكل كبير على بيانات التدريب فقط.
بدلاً من التدريب من البداية، يمكن أن يقلل استخدام النماذج المدربة مسبقًا مثل YOLO11 من التجاوز في التوفيق (overfitting). يتم تدريب YOLO11 على مجموعات بيانات واسعة النطاق، مما يسمح له بالتعميم بشكل جيد عبر الظروف المختلفة.

يساعد الضبط الدقيق لنموذج مُدرَّب مسبقًا في الحفاظ على ما يعرفه بالفعل أثناء تعلم مهام جديدة، حتى لا يقوم فقط بحفظ بيانات التدريب.
بالإضافة إلى ذلك، يعد ضمان وضع العلامات على مجموعة البيانات عالية الجودة أمرًا ضروريًا. يمكن للبيانات التي تحمل علامات خاطئة أو غير متوازنة أن تضلل النماذج لتعلم أنماط غير صحيحة. يؤدي تنظيف مجموعات البيانات وإصلاح الصور التي تحمل علامات خاطئة وموازنة الفئات إلى تحسين الدقة وتقليل خطر التجاوز. هناك طريقة فعالة أخرى وهي التدريب العدائي، حيث يتعرض النموذج لأمثلة معدلة قليلاً أو أكثر تحديًا مصممة لاختبار حدوده.
التحيز الزائد مشكلة شائعة في رؤية الكمبيوتر. قد يعمل النموذج بشكل جيد على بيانات التدريب ولكنه يواجه صعوبة في التعامل مع الصور الواقعية. لتجنب ذلك، تساعد تقنيات مثل زيادة البيانات والتنظيم واستخدام النماذج المدربة مسبقًا مثل YOLO11 على تحسين الدقة والقدرة على التكيف.
من خلال تطبيق هذه الطرق، يمكن لنماذج الذكاء الاصطناعي أن تظل موثوقة وتعمل بشكل جيد في بيئات مختلفة. مع تحسن التعلم العميق، سيكون التأكد من أن النماذج تعمم بشكل صحيح أمرًا أساسيًا لنجاح الذكاء الاصطناعي في العالم الحقيقي.
انضم إلى مجتمعنا المتنامي! استكشف مستودع GitHub الخاص بنا لمعرفة المزيد حول الذكاء الاصطناعي. هل أنت مستعد لبدء مشاريع الرؤية الحاسوبية الخاصة بك؟ تحقق من خيارات الترخيص الخاصة بنا. اكتشف Vision AI في القيادة الذاتية و الذكاء الاصطناعي في الرعاية الصحية من خلال زيارة صفحات الحلول الخاصة بنا!