Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Sigmoide

Learn how the Sigmoid function acts as a squashing activation function in deep learning. Explore its role in binary classification and [YOLO26](https://docs.ultralytics.com/models/yolo26/) models.

A função sigmoide é um componente matemático fundamental amplamente utilizado nas áreas de aprendizagem automática (ML) e aprendizagem profunda (DL). Frequentemente referida como uma «função de esmagamento», ela recebe qualquer número real como entrada e mapeia-o para um valor entre 0 e 1. Esta curva característica em forma de «S» torna-a incrivelmente útil para converter resultados brutos do modelo em probabilidades interpretáveis. No contexto de uma rede neural (NN), a função sigmoide atua como uma função de ativação, introduzindo não linearidade que permite que os modelos aprendam padrões complexos além de relações lineares simples. Embora tenha sido amplamente substituída por outras funções em camadas ocultas profundas, continua a ser uma escolha padrão para camadas de saída em tarefas de classificação binária .

A mecânica do sigmoide na IA

Na sua essência, a função sigmoide transforma os dados de entrada — frequentemente referidos como logits — num intervalo normalizado. Esta transformação é crucial para tarefas cujo objetivo é prever a probabilidade de um evento. Ao limitar a saída entre 0 e 1, a função fornece uma pontuação de probabilidade clara.

  • Regressão logística: Na modelagem estatística tradicional, a sigmoide é o mecanismo por trás da regressão logística. Ela permite que os cientistas de dados estimem a probabilidade de um resultado binário, como se um cliente irá cancelar ou permanecer.
  • Classificação binária: Para redes neurais projetadas para distinguir entre duas classes (por exemplo, «gato» vs. «cão»), a camada final frequentemente emprega uma ativação sigmoidal. Se a saída for maior que um limite (geralmente 0,5), o modelo prevê a classe positiva.
  • Classificação multietiqueta: Ao contrário dos problemas multiclasse, em que as classes são mutuamente exclusivas, as tarefas multietiqueta permitem que uma imagem ou texto pertença a várias categorias simultaneamente. Aqui, o Sigmoid é aplicado independentemente a cada nó de saída, permitindo que um modelo detect «carro» e uma «pessoa» na mesma cena sem conflito.

Key Differences from Other Activation Functions

While Sigmoid was once the default for all layers, researchers discovered limitations like the vanishing gradient problem, where gradients become too small to update weights effectively in deep networks. This led to the adoption of alternatives for hidden layers.

  • Sigmoid vs. ReLU (Rectified Linear Unit): ReLU is computationally faster and avoids vanishing gradients by outputting the input directly if positive, and zero otherwise. It is the preferred choice for hidden layers in modern architectures like YOLO26, whereas Sigmoid is reserved for the final output layer in specific tasks.
  • Sigmoid vs. Softmax: Both map outputs to a 0-1 range, but they serve different purposes. Sigmoid treats each output independently, making it ideal for binary or multi-label tasks. Softmax forces all outputs to sum to 1, creating a probability distribution used for multi-class classification where only one class is correct.

Aplicações no Mundo Real

The utility of the Sigmoid function extends across various industries where probability estimation is required.

  1. Medical Diagnosis: AI models used in medical image analysis often use Sigmoid outputs to predict the probability of a disease being present in an X-ray or MRI scan. For example, a model might output 0.85, indicating an 85% likelihood of a tumor, aiding doctors in early detection.
  2. Spam Detection: Email filtering systems utilize natural language processing (NLP) models with Sigmoid classifiers to determine if an incoming message is "spam" or "not spam." The model analyzes keywords and metadata, outputting a score that determines whether the email lands in the inbox or the junk folder.

Aplicação prática

You can observe how Sigmoid transforms data using PyTorch, a popular library for building deep learning models. This simple example demonstrates the "squashing" effect on a range of input values.

import torch
import torch.nn as nn

# Create a Sigmoid layer
sigmoid = nn.Sigmoid()

# Define input data (logits) ranging from negative to positive
input_data = torch.tensor([-5.0, -1.0, 0.0, 1.0, 5.0])

# Apply Sigmoid to squash values between 0 and 1
output = sigmoid(input_data)

print(f"Input: {input_data}")
print(f"Output: {output}")
# Output values near 0 for negative inputs, 0.5 for 0, and near 1 for positive inputs

For those looking to train models that utilize these concepts without writing low-level code, the Ultralytics Platform offers an intuitive interface to manage datasets and train state-of-the-art models like YOLO26. By handling the architectural complexities automatically, it allows users to focus on gathering high-quality training data for their specific computer vision applications.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora