مسرد المصطلحات

سوفت ماكس

اكتشف كيف تقوم Softmax بتحويل الدرجات إلى احتمالات لمهام التصنيف في الذكاء الاصطناعي، مما يعزز من نجاح التعرف على الصور والبرمجة اللغوية العصبية.

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

Softmax هي دالة تنشيط حاسمة تُستخدم عادةً في طبقة الخرج للشبكات العصبية (NNs)، خاصةً في مشاكل التصنيف متعدد الفئات. ويتمثل دورها الأساسي في تحويل متجه من الدرجات الأولية (غالباً ما تسمى اللوغاريتمات) التي تولدها الطبقة السابقة إلى توزيع احتمالي على فئات محتملة متعددة. وتمثل كل قيمة مخرجات احتمال انتماء المدخلات إلى فئة معينة، والأهم من ذلك أن مجموع هذه الاحتمالات يصل إلى 1، مما يجعل المخرجات قابلة للتفسير بسهولة كمستويات ثقة للنتائج الحصرية المتبادلة.

كيف تعمل سوفت ماكس

من الناحية النظرية، تأخذ دالة Softmax الدرجات الأولية للمخرجات من طبقة الشبكة العصبية وتحولها. وهي تقوم بذلك عن طريق رفع كل درجة إلى الأس أولاً، مما يجعل جميع القيم موجبة ويبرز الدرجات الأكبر بشكل أكبر. بعد ذلك، تقوم الدالة بتطبيع هذه الدرجات المضروبة إلى قوى بقسمة كل درجة على مجموع جميع الدرجات المضروبة إلى قوى. تضمن خطوة التطبيع هذه أن القيم الناتجة تقع بين 0 و1 ومجموعها مجتمعةً يساوي 1، مما يؤدي فعليًا إلى إنشاء توزيع احتمالي عبر الفئات المختلفة. عادةً ما يتم اختيار الفئة التي تتوافق مع أعلى قيمة احتمالية كتوقع نهائي للنموذج. هذه العملية أساسية في نماذج التعلّم العميق (DL) التي تتعامل مع مهام التصنيف.

الخصائص الرئيسية

  • توزيع الاحتمالات: تمثل النواتج احتمالات لكل فئة، ومجموعها دائمًا 1.
  • تركيز متعدد الفئات: مصمم خصيصًا للسيناريوهات التي يمكن أن تنتمي فيها المدخلات إلى فئة واحدة فقط من عدة فئات ممكنة (متنافية).
  • تفسير المخرجات: يجعل مخرجات النموذج بديهية، تمثل مستوى الثقة لكل فئة.
  • قابلية التفاضل: سلسة وقابلة للاشتقاق، مما يسمح باستخدامها بفعالية مع خوارزميات التحسين القائمة على التدرج مثل نزول التدرج أثناء تدريب النموذج.

سوفت ماكس مقابل وظائف التنشيط ذات الصلة

من المهم التمييز بين Softmax ووظائف التنشيط الأخرى:

  • سيغمويد: في حين أن Sigmoid يُخرج أيضًا قيمًا بين 0 و 1، فإنه يُستخدم عادةً للتصنيف الثنائي (خلية عصبية واحدة للخارج) أو التصنيف متعدد التسميات (خلايا عصبية متعددة الخرج حيث يمثل كل خرج احتمالًا مستقلاً، ولا يساوي المجموع بالضرورة 1). يتم استخدام Softmax عندما تكون الفئات متنافية بشكل متبادل. يمكن العثور على مزيد من التفاصيل في مصادر مثل ملاحظات ستانفورد CS231n.
  • ReLU (الوحدة الخطية المعدلة): تُستخدم وحدة ReLU ومتغيراتها مثل وحدة ReLU المعدلة أو SiLU بشكل أساسي في الطبقات المخفية للشبكات العصبية لإدخال اللاخطية. فهي لا تنتج مخرجات شبيهة بالاحتمالات مناسبة لطبقة التصنيف النهائية. يقدم DeepLearning.AI دورات تشرح وظائف التنشيط في الشبكات العصبية.

تطبيقات في الذكاء الاصطناعي والتعلم الآلي

يتم استخدام Softmax على نطاق واسع في مختلف مجالات الذكاء الاصطناعي والتعلم الآلي (ML):

الاعتبارات

على الرغم من قوتها، يمكن أن تكون Softmax حساسة لدرجات المدخلات الكبيرة جدًا، مما قد يؤدي إلى عدم الاستقرار العددي (تجاوز أو نقصان التدفق). أطر التعلم العميق الحديثة مثل PyTorch و TensorFlow إصدارات مستقرة عدديًا من Softmax للتخفيف من هذه المشاكل. يعد فهم سلوكها أمرًا بالغ الأهمية لتدريب النموذج وتفسيره بشكل فعال، وغالبًا ما يتم تسهيل ذلك من خلال منصات مثل Ultralytics HUB لإدارة التجارب وعمليات النشر.

قراءة الكل