Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Régression logistique

Découvrez les principes fondamentaux de la régression logistique pour la classification binaire. Apprenez-en davantage sur la fonction sigmoïde, les scores de probabilité et sa comparaison avec YOLO26.

La régression logistique est une méthode statistique fondamentale et un algorithme d'apprentissage automatique principalement utilisé pour les tâches de classification binaire . Bien que son nom contienne le terme « régression », qui implique généralement la prédiction de valeurs continues (comme la température ou les cours boursiers), la régression logistique est conçue pour prédire la probabilité qu' une entrée donnée appartienne à une catégorie spécifique. Cela en fait un outil essentiel pour les problèmes dont le résultat est dichotomique, comme déterminer si un e-mail est un « spam » ou « non spam », ou si une tumeur médicale est « bénigne » ou « maligne ». Elle sert de pont entre les statistiques traditionnelles et l'apprentissage supervisé moderne , offrant un équilibre entre simplicité et interprétabilité qui est souvent utilisé comme base avant de mettre en œuvre des modèles plus complexes tels que les réseaux neuronaux .

Mécanismes fondamentaux et probabilité

Contrairement à la régression linéaire, qui ajuste une ligne droite aux points de données pour prédire un résultat continu, la régression logistique ajuste une courbe en forme de « S » aux données. Cette courbe est générée à l'aide de la fonction sigmoïde, une transformation mathématique qui mappe tout nombre réel en une valeur comprise entre 0 et 1. Ce résultat représente un score de probabilité, indiquant le degré de confiance qu'une instance appartient à la classe positive.

Au cours du processus d'apprentissage, l'algorithme apprend les poids et les biais optimaux weights and biases afin de minimiser les erreurs. Cela est généralement réalisé à l'aide d'un algorithme d'optimisation tel que la descente de gradient, qui ajuste de manière itérative les paramètres du modèle afin de réduire la différence entre les probabilités prédites et les étiquettes de classe réelles. La performance est souvent évaluée à l'aide d'une fonction de perte spécifique appelée perte logarithmique ou entropie croisée binaire . Une fois que le modèle a généré une probabilité, une limite de décision (souvent fixée à 0,5) classe l'entrée : les valeurs supérieures au seuil deviennent la classe positive, et les valeurs inférieures deviennent la classe négative.

Distinction par rapport aux termes apparentés

Il est important de distinguer la régression logistique d'autres concepts similaires afin d'éviter toute confusion :

  • Régression linéaire vs régression logistique : alors que la régression linéaire prédit des résultats numériques continus (par exemple, les prix de l'immobilier), la régression logistique prédit des résultats catégoriels via des probabilités.
  • Classification vs régression : en apprentissage automatique, les tâches de classification impliquent la prédiction d'étiquettes discrètes, tandis que les tâches de régression prédisent des quantités continues. La régression logistique est un algorithme de classification malgré son nom.
  • Perceptron : un simple Perceptron utilise une fonction en escalier pour produire directement un résultat binaire 0 ou 1, tandis que la régression logistique utilise la fonction sigmoïde lisse pour produire une probabilité, offrant ainsi plus de nuances.

Applications concrètes

La régression logistique reste largement utilisée dans divers secteurs en raison de son efficacité et de la facilité avec laquelle ses résultats peuvent être interprétés.

  • Santé et diagnostic médical : les professionnels de santé utilisent ces modèles pour prédire la probabilité qu'un patient développe une maladie spécifique, telle que le diabète ou une maladie cardiaque, en se basant sur des facteurs tels que l'âge, l'IMC et la pression artérielle. Cela facilite l'analyse précoce des images médicales et la prise de décision.
  • Notation de crédit et finance : les banques utilisent la régression logistique pour évaluer le risque lié à l'octroi d'un prêt à un client. En analysant des caractéristiques telles que les antécédents de crédit et les revenus, le modèle prédit la probabilité de défaut de paiement d'un emprunteur , automatisant ainsi la modélisation prédictive pour la sécurité financière.
  • Marketing et prévision du taux de désabonnement : les entreprises analysent le comportement des clients afin de prédire si un utilisateur va s'abonner à un service ou cesser d'utiliser un produit (désabonnement). Ces informations permettent d'affiner les stratégies de fidélisation de la clientèle et de cibler efficacement les campagnes marketing.

Mise en œuvre moderne

Alors que les modèles d'apprentissage profond tels que YOLO26 sont préférés pour les tâches complexes telles que la détection d'objets, la régression logistique est souvent la couche finale dans les réseaux de classification d'images binaires . Par exemple, un réseau neuronal convolutif peut extraire des caractéristiques, et la couche finale agit comme un classificateur de régression logistique pour déterminer si une image contient un « chat » ou un « chien ».

Des outils tels que la Ultralytics simplifient le flux de travail pour l'entraînement de modèles de classification complexes qui utilisent ces principes sous-jacents. Cependant, pour comprendre le concept brut, des bibliothèques simples peuvent en démontrer les mécanismes.

Voici un exemple simple utilisant torch définir une structure de modèle de régression logistique à une seule couche :

import torch
import torch.nn as nn


# Define a simple Logistic Regression model class
class LogisticRegression(nn.Module):
    def __init__(self, input_dim):
        super().__init__()
        # A single linear layer maps input features to a single output
        self.linear = nn.Linear(input_dim, 1)

    def forward(self, x):
        # The sigmoid function transforms the linear output to a probability (0 to 1)
        return torch.sigmoid(self.linear(x))


# Example usage: Initialize model for 10 input features
model = LogisticRegression(input_dim=10)
print(model)

Avantages et limites

Comprendre les forces et les faiblesses de cet algorithme aide à choisir l'outil adapté à la tâche à accomplir.

  • Interprétabilité : les coefficients (poids) du modèle indiquent directement la relation entre les caractéristiques d'entrée et la variable cible. Un poids positif implique que lorsque la caractéristique augmente, la probabilité d'un résultat positif augmente également. Cette transparence est essentielle pour l' éthique de l'IA et pour expliquer les décisions aux parties prenantes.
  • Efficacité : il nécessite moins de puissance de calcul que les architectures complexes de Deep Learning, ce qui le rend adapté aux applications avec des exigences de latence faibles ou un matériel limité.
  • Linéarité des données : une limitation importante réside dans le fait qu'elle suppose une relation linéaire entre les variables d'entrée et le log-odds du résultat. Elle peut rencontrer des difficultés avec des modèles de données hautement complexes et non linéaires, où des techniques avancées telles que les machines à vecteurs de support (SVM) ou les forêts aléatoires peuvent exceller.
  • Surajustement : sur des ensembles de données à haute dimension comportant peu d'exemples d'apprentissage, la régression logistique peut être sujette au surajustement, bien que cela puisse être atténué à l'aide de techniques de régularisation.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant