اكتشف كيف أحدثت ResNets ثورة في التعلم العميق من خلال حل مشكلة التدرجات المتلاشية، وتمكين الشبكات فائقة العمق لتحليل الصور، والبرمجة اللغوية العصبية، والمزيد.
تعد الشبكات المتبقية، المعروفة باسم ResNet، نوعًا رائدًا من بنية الشبكات العصبية (NN) التي كان لها تأثير عميق على مجال التعلم العميق. تم تقديم ResNet بواسطة Kaiming He وآخرون في ورقتهم البحثية عام 2015، "التعلم المتبقي العميق للتعرف على الصور"، وقد جعلت ResNet من الممكن تدريب الشبكات العصبية العميقة للغاية بشكل فعال، مع مئات أو حتى آلاف الطبقات. وقد تحقق ذلك من خلال تقديم "كتل متبقية" مع "اتصالات تخطي"، وهو مفهوم بسيط ولكنه قوي يخفف من مشكلة تلاشي التدرج، التي غالبًا ما تصيب الشبكات العميقة جدًا.
يكمن الابتكار الأساسي لـ ResNet في استخدام اتصالات التخطي أو الاختصارات. في شبكة عصبونية التفافية (CNN) التقليدية، تغذي كل طبقة مخرجاتها مباشرة إلى الطبقة التالية بالتسلسل. كلما تعمقت الشبكة، يصبح من الصعب على الشبكة أن تتعلم وتنتشر التدرجات إلى الخلف أثناء التدريب. يمكن أن يؤدي ذلك إلى موقف يؤدي فيه إضافة المزيد من الطبقات فعليًا إلى تدهور أداء النموذج.
تعالج ResNet هذه المشكلة عن طريق السماح بإضافة مدخلات طبقة (أو مجموعة من الطبقات) إلى مخرجاتها. ينشئ اتصال التخطي هذا مسارًا بديلاً لتدفق التدرج من خلاله، مما يضمن إمكانية تدريب حتى الشبكات العميقة جدًا بشكل فعال. يسمح هذا الهيكل للشبكة بتعلم الوظائف المتبقية - بشكل أساسي، تحتاج الطبقات فقط إلى تعلم التغييرات أو المتبقيات من المدخلات، بدلاً من التحويل بأكمله. إذا كانت الطبقة غير مفيدة، يمكن للشبكة أن تتعلم بسهولة تجاهلها عن طريق توجيه أوزانها نحو الصفر، مما يسمح بتمرير تعيين الهوية من خلال اتصال التخطي.
إن قدرات استخراج الميزات القوية في ResNet تجعلها خيارًا شائعًا باعتبارها عمودًا فقريًا للعديد من مهام الرؤية الحاسوبية المعقدة.
يتم تطبيق Architectures ResNet على نطاق واسع في أطر التعلم العميق الرئيسية مثل PyTorch و TensorFlow. النماذج المدربة مسبقًا، والتي غالبًا ما يتم تدريبها على مجموعة بيانات ImageNet واسعة النطاق، متاحة بسهولة من خلال مكتبات مثل torchvision، مما يسهل نقل التعلم الفعال للتطبيقات المخصصة. تتيح منصات مثل Ultralytics HUB للمستخدمين الاستفادة من Architectures المختلفة، بما في ذلك النماذج المستندة إلى ResNet، لتدريب النماذج المخصصة لتلبية احتياجاتهم الخاصة. في حين أن ResNet قد وضعت أساسًا قويًا للأداء، فقد تم تطوير Architectures الأحدث مثل EfficientNet منذ ذلك الحين لتقديم كفاءة أفضل. يمكنك العثور على المزيد من الموارد التعليمية حول CNNs في دورة CS231n بجامعة ستانفورد أو من خلال دورات من موفرين مثل DeepLearning.AI.