了解SGD和AdamW等优化算法如何驱动ML训练。学习如何最小化损失并提高Ultralytics YOLO26在AI应用中的性能。
优化算法是驱动机器学习 (ML)和深度学习 (DL)模型训练过程的核心计算引擎。其主要职责是迭代调整内部模型权重和偏差,以最小化预测结果与实际目标之间的误差。您可以将此过程想象成一名徒步旅行者试图穿过迷雾弥漫的山区,到达山谷的最低点。优化算法充当向导,决定徒步旅行者应采取的方向和步长以到达底部,这对应于损失函数最小化且模型预测准确性最大化的状态。
神经网络的训练涉及预测、误差计算和参数更新的重复循环。优化算法控制此循环的“更新”阶段。一旦处理完一批训练数据,系统会使用一种称为反向传播的方法计算梯度——一个指向误差增加最快方向的向量。
优化器随后沿梯度的反方向更新模型参数以减少误差。此更新的幅度由一个关键的超参数——学习率——控制。如果步长过大,模型可能会越过全局最小值;如果步长过小,训练可能会变得极其缓慢或陷入局部最小值。诸如斯坦福 CS231n 优化笔记等高级资源提供了对这些动态更深入的技术见解。
不同的问题需要不同的策略。尽管存在多种变体,但少数几个关键算法主导着现代 AI 开发:
优化算法几乎在每一个成功的AI 解决方案背后默默运行,将数据转化为可操作的智能。
区分优化算法与学习过程中的其他组件对于有效理解工作流程至关重要。
在现代框架中,选择优化算法通常通过单个参数完成。以下示例演示了如何训练一个 YOLO26 使用
AdamW 优化器在 ultralytics 包。用户还可以利用该
Ultralytics 平台 以无代码方式管理这些训练会话。
from ultralytics import YOLO
# Load the latest YOLO26 model (recommended for new projects)
model = YOLO("yolo26n.pt")
# Train the model using the 'AdamW' optimization algorithm
# The optimizer iteratively updates weights to minimize loss on the dataset
results = model.train(data="coco8.yaml", epochs=5, optimizer="AdamW")
对于那些对底层机制感兴趣的人,像 PyTorch Optimizers 和 TensorFlow Keras Optimizers 这样的框架提供了详尽的文档,说明如何为定制研究架构实现和定制这些算法。

开启您的机器学习未来之旅