Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

سيجمويد (Sigmoid)

اكتشف قوة دالة Sigmoid في الذكاء الاصطناعي. تعلم كيف تتيح اللاخطية، وتساعد في التصنيف الثنائي، وتقود تطورات التعلم الآلي!

وظيفة Sigmoid هي مكون رياضي أساسي يستخدم على نطاق واسع في مجالات التعلم الآلي (ML) و التعلم العميق (DL). غالبًا ما يشار إليها باسم "وظيفة السحق"، وهي تأخذ أي رقم ذي قيمة حقيقية كمدخل وتربطه بقيمة بين 0 و 1. هذه المنحنى المميز على شكل حرف "S" يجعلها مفيدة للغاية لتحويل مخرجات النموذج الأولية إلى احتمالات قابلة للتفسير. في سياق الشبكة العصبية (NN)، تعمل الدالة السينيّة كدالة تنشيط، حيث تضيف عدم خطية تسمح للنماذج بتعلم أنماط معقدة تتجاوز العلاقات الخطية البسيطة. على الرغم من أنها تم استبدالها إلى حد كبير بدوال أخرى في الطبقات الخفية العميقة، إلا أنها تظل خيارًا قياسيًا لطبقات الإخراج في مهام التصنيف الثنائي .

آليات السيني في الذكاء الاصطناعي

في جوهرها، تقوم الدالة السينيّة بتحويل البيانات المدخلة — التي يشار إليها غالبًا باسم logits — إلى نطاق معياري. هذا التحويل ضروري للمهام التي يكون هدفها توقع احتمالية وقوع حدث ما. من خلال تحديد الناتج بين 0 و 1، توفر الدالة درجة احتمالية واضحة.

  • الانحدار اللوجستي: في النمذجة الإحصائية التقليدية، Sigmoid هو المحرك وراء الانحدار اللوجستي. وهو يسمح لعلماء البيانات بتقدير احتمالية نتيجة ثنائية، مثل ما إذا كان العميل سيترك الخدمة أم سيبقى.
  • التصنيف الثنائي: بالنسبة للشبكات العصبية المصممة للتمييز بين فئتين (على سبيل المثال، "قطة" مقابل "كلب")، غالبًا ما تستخدم الطبقة النهائية تنشيطًا سيغموديًا. إذا كان الناتج أكبر من عتبة (عادةً 0.5)، يتنبأ النموذج بالفئة الإيجابية.
  • التصنيف متعدد العلامات: على عكس المشكلات متعددة الفئات حيث تكون الفئات متعارضة، تسمح المهام متعددة العلامات للصورة أو النص بالانتماء إلى فئات متعددة في وقت واحد. هنا، يتم تطبيق Sigmoid بشكل مستقل على كل عقدة إخراج، مما يمكّن النموذج من detect " و"شخص" في نفس المشهد دون تعارض.

Key Differences from Other Activation Functions

While Sigmoid was once the default for all layers, researchers discovered limitations like the vanishing gradient problem, where gradients become too small to update weights effectively in deep networks. This led to the adoption of alternatives for hidden layers.

  • Sigmoid vs. ReLU (Rectified Linear Unit): ReLU is computationally faster and avoids vanishing gradients by outputting the input directly if positive, and zero otherwise. It is the preferred choice for hidden layers in modern architectures like YOLO26, whereas Sigmoid is reserved for the final output layer in specific tasks.
  • Sigmoid vs. Softmax: Both map outputs to a 0-1 range, but they serve different purposes. Sigmoid treats each output independently, making it ideal for binary or multi-label tasks. Softmax forces all outputs to sum to 1, creating a probability distribution used for multi-class classification where only one class is correct.

تطبيقات واقعية

The utility of the Sigmoid function extends across various industries where probability estimation is required.

  1. Medical Diagnosis: AI models used in medical image analysis often use Sigmoid outputs to predict the probability of a disease being present in an X-ray or MRI scan. For example, a model might output 0.85, indicating an 85% likelihood of a tumor, aiding doctors in early detection.
  2. Spam Detection: Email filtering systems utilize natural language processing (NLP) models with Sigmoid classifiers to determine if an incoming message is "spam" or "not spam." The model analyzes keywords and metadata, outputting a score that determines whether the email lands in the inbox or the junk folder.

التنفيذ العملي

You can observe how Sigmoid transforms data using PyTorch, a popular library for building deep learning models. This simple example demonstrates the "squashing" effect on a range of input values.

import torch
import torch.nn as nn

# Create a Sigmoid layer
sigmoid = nn.Sigmoid()

# Define input data (logits) ranging from negative to positive
input_data = torch.tensor([-5.0, -1.0, 0.0, 1.0, 5.0])

# Apply Sigmoid to squash values between 0 and 1
output = sigmoid(input_data)

print(f"Input: {input_data}")
print(f"Output: {output}")
# Output values near 0 for negative inputs, 0.5 for 0, and near 1 for positive inputs

For those looking to train models that utilize these concepts without writing low-level code, the Ultralytics Platform offers an intuitive interface to manage datasets and train state-of-the-art models like YOLO26. By handling the architectural complexities automatically, it allows users to focus on gathering high-quality training data for their specific computer vision applications.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن