يولو فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

الشبكات المتبقية (ResNet)

اكتشف كيف أحدثت ResNets ثورة في التعلم العميق من خلال حل مشكلة التدرجات المتلاشية، وتمكين الشبكات فائقة العمق لتحليل الصور، والبرمجة اللغوية العصبية، والمزيد.

تعد الشبكات المتبقية، المعروفة باسم ResNet، نوعًا رائدًا من بنية الشبكات العصبية (NN) التي كان لها تأثير عميق على مجال التعلم العميق. تم تقديم ResNet بواسطة Kaiming He وآخرون في ورقتهم البحثية عام 2015، "التعلم المتبقي العميق للتعرف على الصور"، وقد جعلت ResNet من الممكن تدريب الشبكات العصبية العميقة للغاية بشكل فعال، مع مئات أو حتى آلاف الطبقات. وقد تحقق ذلك من خلال تقديم "كتل متبقية" مع "اتصالات تخطي"، وهو مفهوم بسيط ولكنه قوي يخفف من مشكلة تلاشي التدرج، التي غالبًا ما تصيب الشبكات العميقة جدًا.

كيف تعمل ResNet؟

يكمن الابتكار الأساسي لـ ResNet في استخدام اتصالات التخطي أو الاختصارات. في شبكة عصبونية التفافية (CNN) التقليدية، تغذي كل طبقة مخرجاتها مباشرة إلى الطبقة التالية بالتسلسل. كلما تعمقت الشبكة، يصبح من الصعب على الشبكة أن تتعلم وتنتشر التدرجات إلى الخلف أثناء التدريب. يمكن أن يؤدي ذلك إلى موقف يؤدي فيه إضافة المزيد من الطبقات فعليًا إلى تدهور أداء النموذج.

تعالج ResNet هذه المشكلة عن طريق السماح بإضافة مدخلات طبقة (أو مجموعة من الطبقات) إلى مخرجاتها. ينشئ اتصال التخطي هذا مسارًا بديلاً لتدفق التدرج من خلاله، مما يضمن إمكانية تدريب حتى الشبكات العميقة جدًا بشكل فعال. يسمح هذا الهيكل للشبكة بتعلم الوظائف المتبقية - بشكل أساسي، تحتاج الطبقات فقط إلى تعلم التغييرات أو المتبقيات من المدخلات، بدلاً من التحويل بأكمله. إذا كانت الطبقة غير مفيدة، يمكن للشبكة أن تتعلم بسهولة تجاهلها عن طريق توجيه أوزانها نحو الصفر، مما يسمح بتمرير تعيين الهوية من خلال اتصال التخطي.

ResNet مقابل Architectures الأخرى

  • شبكات CNN القياسية: على عكس شبكات CNN التسلسلية القياسية، يمكن أن تنمو شبكات ResNet بشكل أعمق بكثير دون فقدان الأداء، وذلك بفضل التعلم المتبقي. يتيح لها هذا العمق تعلم ميزات أكثر تعقيدًا وتحقيق دقة أعلى في المهام الصعبة.
  • U-Net: في حين أن U-Net تستخدم أيضًا اتصالات تخطي، إلا أن الغرض منها مختلف. في U-Net، تربط اتصالات التخطي الطبقات من مسار أخذ العينات السفلي إلى مسار أخذ العينات العلوي لاستعادة المعلومات المكانية لـ تجزئة الصور الدقيقة. في ResNet، تكون الاتصالات عادةً أقصر ومصممة لتحسين تدفق التدرج وتمكين البنى الأعمق.

تطبيقات واقعية

إن قدرات استخراج الميزات القوية في ResNet تجعلها خيارًا شائعًا باعتبارها عمودًا فقريًا للعديد من مهام الرؤية الحاسوبية المعقدة.

الأدوات والتنفيذ

يتم تطبيق Architectures ResNet على نطاق واسع في أطر التعلم العميق الرئيسية مثل PyTorch و TensorFlow. النماذج المدربة مسبقًا، والتي غالبًا ما يتم تدريبها على مجموعة بيانات ImageNet واسعة النطاق، متاحة بسهولة من خلال مكتبات مثل torchvision، مما يسهل نقل التعلم الفعال للتطبيقات المخصصة. تتيح منصات مثل Ultralytics HUB للمستخدمين الاستفادة من Architectures المختلفة، بما في ذلك النماذج المستندة إلى ResNet، لتدريب النماذج المخصصة لتلبية احتياجاتهم الخاصة. في حين أن ResNet قد وضعت أساسًا قويًا للأداء، فقد تم تطوير Architectures الأحدث مثل EfficientNet منذ ذلك الحين لتقديم كفاءة أفضل. يمكنك العثور على المزيد من الموارد التعليمية حول CNNs في دورة CS231n بجامعة ستانفورد أو من خلال دورات من موفرين مثل DeepLearning.AI.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة