اكتشف قوة تفعيل Leaky ReLU للذكاء الاصطناعي وتعلم الآلة. حل مشكلة ReLU المتلاشي وعزز أداء النموذج في رؤية الحاسوب ومعالجة اللغة الطبيعية (NLP) والشبكات التوليدية المتنافسة (GANs) والمزيد!
الوحدة الخطية المصححة المتسربة، أو Leaky ReLU، هي دالة تنشيط مستخدمة في الشبكات العصبية (NN) وهي تحسين مباشر على دالة الوحدة الخطية المصححة القياسية (ReLU). تم تصميمه لمعالجة مشكلة "ReLU الميتة"، حيث يمكن أن تصبح الخلايا العصبية غير نشطة وتتوقف عن التعلم أثناء التدريب. من خلال إدخال ميل صغير وغير صفري لقيم الإدخال السلبية، تضمن Leaky ReLU أن الخلايا العصبية لديها دائمًا تدرج، مما يسمح بتدريب أكثر استقرارًا واتساقًا في نماذج التعلم العميق (DL). لقد ثبت أن هذا التعديل البسيط فعال في مختلف البنى، مما يساعد على تحسين أداء النموذج وديناميكيات التدريب.
الدافع الرئيسي وراء استخدام دالة ReLU المُسرَّبة (Leaky ReLU) هو حل مشكلة "الخلايا العصبية الميتة". في دالة ReLU القياسية، يؤدي أي مُدخل سلبي إلى خلية عصبية إلى إخراج قيمته صفر. وإذا تلقت خلية عصبية باستمرار مُدخلات سلبية، فسيكون خرجها دائمًا صفرًا. ونتيجة لذلك، سيكون التدرج المتدفق عبر هذه الخلية العصبية أثناء الانتشار العكسي صفرًا أيضًا. وهذا يعني أن أوزان الخلية العصبية لن يتم تحديثها بعد ذلك، وستتوقف فعليًا عن المشاركة في عملية التعلم - أي "تموت".
تعالج Leaky ReLU هذا عن طريق السماح بتدرج إيجابي صغير عندما تكون الوحدة غير نشطة. بدلاً من إخراج صفر للمدخلات السلبية، فإنها تخرج قيمة مضروبة في ثابت صغير ("التسرب"). وهذا يضمن ألا يكون للخلايا العصبية تدرج صفري أبدًا، مما يسمح لها بالتعافي والاستمرار في التعلم. تم تفصيل هذا النهج لأول مرة في ورقة حول التقييم التجريبي للتنشيطات المصححة في الشبكة التلافيفية.
إن قدرة Leaky ReLU على تعزيز تدريب أكثر استقرارًا جعلتها ذات قيمة في العديد من مجالات الذكاء الاصطناعي (AI).
تعد Leaky ReLU واحدة من العديد من دوال التنشيط المصممة لتحسين ReLU الأصلية. يساعد فهم علاقتها بالآخرين في اختيار الدالة المناسبة لمهمة معينة.
غالبًا ما يعتمد الاختيار الأمثل لوظيفة التنشيط على البنية المحددة ومجموعة البيانات (مثل تلك المتوفرة في Ultralytics Datasets) والنتائج من ضبط المعلمات الفائقة. يظل Leaky ReLU خيارًا قويًا لبساطته وتكاليفه الحسابية المنخفضة وفعاليته في منع موت الخلايا العصبية.
توفر أطر التعلم العميق الرئيسية مثل PyTorch و TensorFlow تطبيقات مباشرة، كما هو موضح في الوثائق الرسمية الخاصة بها لـ LeakyReLU الخاص بـ PyTorch و LeakyReLU الخاص بـ TensorFlow. يتيح هذا الوصول للمطورين إمكانية التجربة والدمج بسهولة في نماذجهم باستخدام منصات مثل Ultralytics HUB.