探索用于二分类的逻辑回归基础知识。了解 Sigmoid 函数、概率分数,以及它与 YOLO26 的比较。
逻辑回归是一种基本的统计方法和机器学习算法,主要用于二元分类任务。尽管其名称中包含“回归”(通常意味着预测连续值,如温度或股票价格),但逻辑回归旨在预测给定输入属于特定类别的概率。这使其成为结果为二分问题的关键工具,例如判断电子邮件是“垃圾邮件”还是“非垃圾邮件”,或者医学肿瘤是“良性”还是“恶性”。它充当了传统统计学与现代监督学习之间的桥梁,在实现神经网络等更复杂模型之前,常因其简洁性和可解释性的平衡而被用作基线。
与将直线拟合到数据点以预测连续输出的线性回归不同,逻辑回归将“S”形曲线拟合到数据。这条曲线是使用Sigmoid 函数生成的,这是一种数学变换,将任何实数值映射到0到1之间的值。此输出代表一个概率分数,表明一个实例属于正类的置信度。
在训练过程中,算法学习最优的权重和偏差以最小化误差。这通常通过优化算法(如梯度下降)实现,该算法迭代调整模型参数,以减少预测概率与实际类别标签之间的差异。性能通常使用称为对数损失(Log Loss)或二元交叉熵(Binary Cross-Entropy)的特定损失函数进行评估。一旦模型输出概率,决策边界(通常设为0.5)将对输入进行分类:高于阈值的值成为正类,低于阈值的值成为负类。
区分逻辑回归与类似概念以避免混淆非常重要:
逻辑回归因其高效性及其结果易于解释的特点,在各行各业中仍被广泛使用。
尽管像 YOLO26 这样的深度学习模型更适用于对象 detect 等复杂任务,但逻辑回归通常是二元图像分类网络的最后一层。例如,卷积神经网络可能会提取特征,而最后一层则充当逻辑回归分类器,以确定图像是否包含“猫”或“狗”。
像Ultralytics Platform这样的工具简化了训练利用这些基本原理的复杂分类模型的工作流程。然而,为了理解原始概念,简单的库可以演示其机制。
以下是一个使用 torch 来定义单层逻辑回归模型结构:
import torch
import torch.nn as nn
# Define a simple Logistic Regression model class
class LogisticRegression(nn.Module):
def __init__(self, input_dim):
super().__init__()
# A single linear layer maps input features to a single output
self.linear = nn.Linear(input_dim, 1)
def forward(self, x):
# The sigmoid function transforms the linear output to a probability (0 to 1)
return torch.sigmoid(self.linear(x))
# Example usage: Initialize model for 10 input features
model = LogisticRegression(input_dim=10)
print(model)
了解该算法的优缺点有助于为任务选择正确的工具。

开启您的机器学习未来之旅