اكتشف كيف تمنع طبقات التسرب (dropout layers) التجاوز في الشبكات العصبية من خلال تحسين التعميم والمتانة وأداء النموذج.
طبقة التسرب هي تقنية تنظيم قوية ولكنها بسيطة تُستخدم في الشبكات العصبية (NN) لمكافحة التجاوز. يحدث التجاوز عندما يتعلم النموذج بيانات التدريب جيدًا جدًا، بما في ذلك الضوضاء والتفردات، مما يضر بقدرته على التعميم على البيانات الجديدة غير المرئية. الفكرة الأساسية وراء التسرب، التي قدمها Geoffrey Hinton وزملاؤه في ورقة بحثية رائدة عام 2014، هي "إسقاط" الخلايا العصبية واتصالاتها عشوائيًا - أو إزالتها مؤقتًا - أثناء كل خطوة تدريب. يمنع هذا الخلايا العصبية من الاعتماد المفرط على بعضها البعض، مما يجبر الشبكة على تعلم تمثيلات أكثر قوة وتكرارًا.
أثناء عملية تدريب النموذج، تقوم طبقة التسرب (dropout layer) بتعيين تنشيطات جزء من الخلايا العصبية في الطبقة السابقة بشكل عشوائي إلى الصفر. "معدل التسرب" هو معامل فائق يحدد احتمالية إسقاط خلية عصبية. على سبيل المثال، يعني معدل التسرب البالغ 0.5 أن كل خلية عصبية لديها فرصة بنسبة 50٪ ليتم تجاهلها خلال تكرار تدريبي معين. يمكن اعتبار هذه العملية بمثابة تدريب عدد كبير من الشبكات الرقيقة التي تشترك في الأوزان.
من خلال تغيير بنية الشبكة باستمرار، يمنع التسرب التكيفات المشتركة المعقدة، حيث يعتمد خرج العصبون بشكل كبير على وجود عدد قليل من العصبونات الأخرى المحددة. بدلاً من ذلك، يتم تشجيع كل عصبون على أن يكون كاشف ميزات أكثر فائدة بشكل مستقل. خلال مرحلة الاختبار أو الاستدلال، يتم إيقاف تشغيل طبقة التسرب، ويتم استخدام جميع العصبونات. للتعويض عن حقيقة أن المزيد من العصبونات نشطة أكثر مما كانت عليه أثناء التدريب، يتم تقليل مخرجات الطبقة بمعدل التسرب. وهذا يضمن بقاء الناتج المتوقع من كل عصبون ثابتًا بين التدريب والاختبار. تتعامل أطر العمل مثل PyTorch و TensorFlow مع هذا القياس تلقائيًا في عمليات تنفيذ طبقة التسرب الخاصة بها.
يستخدم التسرب على نطاق واسع في مختلف مجالات الذكاء الاصطناعي (AI) و التعلم الآلي (ML):
التسرب (Dropout) هو إحدى التقنيات العديدة المستخدمة للتنظيم في التعلم العميق. وتشمل التقنيات الأخرى:
باختصار، طبقة التسرب هي تقنية تنظيم بسيطة ولكنها قوية ضرورية لتدريب نماذج التعلم العميق القوية عبر تطبيقات مختلفة، من رؤية الكمبيوتر المتقدمة إلى معالجة اللغة الطبيعية.