استعدوا لـ YOLO Vision 2025!
25 سبتمبر، 2025
10:00 — 18:00 بتوقيت بريطانيا الصيفي
حدث هجين
مؤتمر Yolo Vision 2024
مسرد المصطلحات

الوحدة الخطية للخطأ الغاوسي (GELU)

اكتشف كيف تعزز دالة التنشيط GELU نماذج المحولات مثل GPT-4، مما يزيد من تدفق التدرج والاستقرار والكفاءة.

دالة التفعيل GELU (وحدة الخطأ الخطي الغاوسي) هي دالة تفعيل عالية الأداء أصبحت معيارًا في تصميمات الشبكات العصبية الحديثة، وخاصة نماذج Transformer. وهي معروفة بمنحناها الأملس وغير الرتيب، مما يساعد النماذج على تعلم الأنماط المعقدة بشكل أكثر فعالية من الدوال الأقدم. تم تقديمها في ورقة "وحدات الخطأ الخطي الغاوسي (GELUs)"، وهي تجمع بين خصائص من دوال أخرى مثل التسرب (dropout) و ReLU لتحسين استقرار التدريب وأداء النموذج.

كيف تعمل GELU

على عكس ReLU، الذي يقطع بشكل حاد جميع القيم السالبة، فإن GELU يوازن مدخلاته بناءً على حجمها. يحدد احتماليًا ما إذا كان سيتم تنشيط عصبون بضرب الإدخال في دالة التوزيع التراكمي (CDF) للتوزيع الغاوسي القياسي. هذا يعني أن المدخلات من المرجح أن يتم "إسقاطها" (تعيينها على الصفر) كلما كانت أكثر سلبية، ولكن الانتقال سلس بدلاً من مفاجئ. تساعد خاصية التنظيم العشوائي هذه في منع مشكلات مثل مشكلة تلاشي التدرج وتسمح بتمثيل أكثر ثراءً للبيانات، وهو أمر بالغ الأهمية لنماذج التعلم العميق الحديثة.

GELU مقابل دوال التفعيل الأخرى

تقدم GELU العديد من المزايا مقارنة بدوال التفعيل الشائعة الأخرى، مما يؤدي إلى اعتمادها على نطاق واسع.

  • GELU مقابل ReLU: الفرق الأساسي هو سلاسة GELU. في حين أن ReLU بسيط حسابيًا، إلا أن زاويته الحادة عند الصفر يمكن أن تؤدي أحيانًا إلى مشكلة "ReLU المتلاشية"، حيث تصبح الخلايا العصبية غير نشطة بشكل دائم. يتجنب منحنى GELU السلس هذه المشكلة، مما يسهل تدرج تنازلي أكثر استقرارًا وغالبًا ما يؤدي إلى دقة نهائية أفضل.
  • GELU مقابل Leaky ReLU: تحاول Leaky ReLU إصلاح مشكلة ReLU المتلاشية عن طريق السماح بميل سلبي صغير للمدخلات السلبية. ومع ذلك، فإن الطبيعة المنحنية غير الخطية لـ GELU توفر نطاق تنشيط أكثر ديناميكية أظهر تفوقًا على Leaky ReLU في العديد من مهام التعلم العميق.
  • GELU مقابل SiLU (Swish): الوحدة الخطية السينية (SiLU)، والمعروفة أيضًا باسم Swish، تشبه إلى حد كبير GELU. كلاهما دالتان سلستان وغير رتيبتين أظهرتا أداءً ممتازًا. غالبًا ما يعتمد الاختيار بينهما على الاختبار التجريبي لبنية معينة و مجموعة بيانات، على الرغم من أن بعض الأبحاث تشير إلى أن SiLU يمكن أن تكون أكثر كفاءة قليلاً في بعض نماذج رؤية الكمبيوتر. غالبًا ما تستخدم نماذج مثل Ultralytics YOLO SiLU لتحقيق التوازن بين الأداء والكفاءة.

التطبيقات في الذكاء الاصطناعي والتعلم العميق

تعد GELU مكونًا رئيسيًا في العديد من نماذج الذكاء الاصطناعي الأكثر قوة التي تم تطويرها حتى الآن.

التنفيذ والاستخدام

تتوفر GELU بسهولة في جميع أطر عمل التعلم العميق الرئيسية، مما يجعل من السهل دمجها في النماذج المخصصة.

يمكن للمطورين بناء وتدريب ونشر النماذج باستخدام GELU مع منصات مثل Ultralytics HUB، مما يبسط دورة حياة MLOps بأكملها بدءًا من زيادة البيانات وحتى نشر النموذج النهائي.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة