Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

SiLU (وحدة خطية سيجمويد)

اكتشف كيف تعزز وظيفة التنشيط SiLU (وحدة خطية سيني) التعلم العميق. تعرف على سبب اعتبار SiLU المعيار القياسي لـ Ultralytics لتحسين الدقة.

وحدة Sigmoid Linear Unit، التي يشار إليها عادةً باسم SiLU، هي وظيفة تنشيط عالية الفعالية تُستخدم في بنى التعلم العميق الحديثة لإدخال عدم الخطية في الشبكات العصبية. من خلال تحديد كيفية معالجة الخلايا العصبية للمعلومات ونقلها عبر طبقات النموذج، تتيح SiLU للأنظمة تعلم الأنماط المعقدة في البيانات، وتعمل كبديل أكثر سلاسة وتطوراً للوظائف الخطية التقليدية. غالبًا ما يرتبط مصطلح "Swish" بالبحث الأولي حول البحث التلقائي عن التنشيط، وأصبح SiLU معيارًا في نماذج الرؤية الحاسوبية عالية الأداء، بما في ذلك بنية YOLO26 المتطورة.

كيفية عمل دالة SiLU

في جوهرها، تعمل وظيفة SiLU عن طريق ضرب قيمة الإدخال في تحويلها السيجماوي الخاص بها. على عكس وظائف العتبة البسيطة التي تقوم بتبديل الخلية العصبية بشكل مفاجئ بين "تشغيل" و"إيقاف"، توفر SiLU منحنى سلسًا يسمح بمعالجة الإشارات بشكل أكثر دقة. تخلق هذه البنية الرياضية خصائص مميزة تفيد عملية تدريب النموذج:

تطبيقات واقعية

تُعد SiLU جزءًا لا يتجزأ من العديد من حلول الذكاء الاصطناعي المتطورة التي تتسم بالدقة والكفاءة.

  • إدراك المركبات ذاتية القيادة: في مجال السلامة الحيوية للمركبات ذاتية القيادة ، يجب أن تقوم أنظمة الإدراك بتحديد المشاة وإشارات المرور والعوائق على الفور. يمكن للنماذج التي تستخدم SiLU في هياكلها الأساسية الحفاظ على سرعات استدلالعالية مع أداء دقيق لاكتشاف الأجسام في ظروف إضاءة متفاوتة، مما يضمن استجابة المركبة بأمان لبيئتها.
  • التشخيص بالتصوير الطبي: في تحليل الصور الطبية، تحتاج الشبكات العصبية إلى تمييز الاختلافات الدقيقة في النسيج في التصوير بالرنين المغناطيسي أو الأشعة المقطعية. تساعد طبيعة SiLU في الحفاظ على التدرج هذه الشبكات على تعلم التفاصيل الدقيقة اللازمة للكشف المبكر عن الأورام، مما يحسن بشكل كبير من موثوقية أدوات التشخيص الآلية التي يستخدمها أخصائيو الأشعة.

مقارنة مع المفاهيم ذات الصلة

لتقدير SiLU تقديراً كاملاً، من المفيد تمييزه عن وظائف التنشيط الأخرى الموجودة في Ultralytics .

  • SiLU مقابل ReLU (وحدة خطية مصححة): تشتهر ReLU بسرعتها وبساطتها، حيث تنتج صفرًا لجميع المدخلات السالبة. على الرغم من كفاءتها، إلا أن هذا يمكن أن يؤدي إلى "خلايا عصبية ميتة" تتوقف عن التعلم. تتجنب SiLU هذا عن طريق السماح بتدفق تدرج صغير غير خطي عبر القيم السالبة، مما يؤدي غالبًا إلى دقة أفضل للبنى العميقة المدربة على Ultralytics .
  • SiLU مقابل GELU (وحدة الخطأ الخطي الغاوسي): هاتان الوظيفتان متشابهتان من الناحية البصرية والوظيفية. GELU هي المعيار لنماذج المحولات مثل BERT و GPT، بينما SiLU غالبًا ما تُفضل لمهام الرؤية الحاسوبية (CV) وأجهزة الكشف عن الأجسام القائمة على CNN .
  • SiLU مقابل Sigmoid: على الرغم من أن SiLU يستخدم وظيفة Sigmoid داخليًا، إلا أنهما يؤديان أدوارًا مختلفة. عادةً ما يستخدم Sigmoid في طبقة الإخراج النهائية للتصنيف الثنائي لتمثيل الاحتمالات، بينما يستخدم SiLU في الطبقات المخفية لتسهيل استخراج الميزات .

مثال على التنفيذ

يمكنك تصور كيفية تحويل وظائف التنشيط المختلفة للبيانات باستخدام PyTorch . يوضح مقتطف الشفرة التالي الفرق بين ReLU (الذي يعمل على إعادة تعيين القيم السالبة إلى الصفر) و SiLU (الذي يسمح بتدفق سلس للقيم السالبة).

import torch
import torch.nn as nn

# Input data: negative, zero, and positive values
data = torch.tensor([-2.0, 0.0, 2.0])

# Apply ReLU: Negatives become 0, positives stay unchanged
relu_out = nn.ReLU()(data)
print(f"ReLU: {relu_out}")
# Output: tensor([0., 0., 2.])

# Apply SiLU: Smooth curve, small negative value retained
silu_out = nn.SiLU()(data)
print(f"SiLU: {silu_out}")
# Output: tensor([-0.2384,  0.0000,  1.7616])

من خلال الاحتفاظ بالمعلومات في القيم السالبة وتوفير تدرج سلس، يلعب SiLU دورًا محوريًا في نجاح الشبكات العصبية الحديثة. ويؤكد اعتماده في بنى مثل YOLO26 على أهميته في تحقيق أداء متطور عبر مهام الرؤية الحاسوبية المتنوعة.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن