探索线性回归基础及其在人工智能中的作用。了解Ultralytics 如何运用回归技术实现精准目标检测与边界框坐标计算。
线性回归是一种基础统计方法,也是监督学习中的基础算法,用于建模因变量(目标)与一个或多个自变量(特征)之间的关系。 与预测离散类别的分类算法不同,线性回归预测的是连续输出值,因此在需要预测具体数值的任务中不可或缺。其简单性和可解释性使其成为理解更复杂机器学习(ML)概念的入门途径——它揭示了模型通过最小化误差从数据中学习的核心机制。
该技术的主要目标是寻找最能描述数据模式的"最佳拟合线"——或更高维度中的超平面。为实现这一目标,算法会计算输入特征的加权和加上一个偏置项。在训练过程中,模型会反复调整这些内部参数,即 weights and biases,以缩小模型预测值与实际真实值之间的偏差。
该偏差通过损失函数进行量化, 最常用的选择是 均方误差(MSE)。 为有效最小化损失,需采用梯度下降等 优化算法更新权重。若模型过度贴合训练数据中的噪声,则存在过拟合风险;反之,若模型过于简单而无法捕捉潜在趋势,则会出现欠拟合问题。
尽管线性回归原理常与数据分析中的 简单预测建模相关联,但其实它已深深植根于先进的深度学习(DL)架构之中。
必须将此术语与 逻辑回归区分开来。尽管两者都是线性 模型,但其输出结果存在显著差异。线性回归预测的是 连续数值(例如汽车价格)。 而逻辑回归则用于分类任务,通过将线性输出结果(如sigmoid函数) 传递至激活函数,预测输入数据属于特定类别的概率(例如判断邮件 属于"垃圾邮件"或"非垃圾邮件")。
在计算机视觉领域,当YOLO26这类模型检测到目标时,其边界框坐标是回归任务的结果。该模型通过预测连续数值来精确定位目标。
from ultralytics import YOLO
# Load the YOLO26 model (nano version)
model = YOLO("yolo26n.pt")
# Run inference on an image
# The model uses regression to determine the exact box placement
results = model("https://ultralytics.com/images/bus.jpg")
# Display the continuous regression outputs (x, y, width, height)
for box in results[0].boxes:
print(f"Box Regression Output (xywh): {box.xywh.numpy()}")
希望利用这些回归功能为专用数据集训练自定义模型的用户,可Ultralytics 实现高效标注与云端训练。 掌握这些基础回归原理,将为攻克人工智能(AI) 与计算机视觉领域的复杂任务奠定坚实基础。