深圳Yolo 视觉
深圳
立即加入
词汇表

Epoch(轮次)

了解机器学习中的纪元--它们如何影响模型训练、防止过拟合,以及利用Ultralytics YOLO 优化性能。

在训练 人工智能(AI)模型时,一个 是指学习算法对整个训练数据集的一次完整传递。它是 时间单位 它是神经网络(NN)训练中的一个基本时间单位,标志着 模型有机会从所提供数据中的每个样本中学习一次。因为深度学习 模型很少能在看过一次数据后就达到最佳性能,因此训练通常需要 在多个历元中重复这一过程,以尽量减少误差并完善内部参数。

长期学习的机制

在一个历时中,主要目标是调整模型权重,将输入映射到正确的输出。 模型权重,以准确地将输入映射到正确的输出上。 输出。在此过程中 优化算法,如随机梯度下降算法(SGD 梯度下降算法SGD)等优化算法,使用特定的损失函数计算误差,并更新模型的内部结构。 损失函数计算误差,并更新模型的内部状态。

由于数据集包含复杂的变化和噪音,单次学习往往是不够的。通过运行多个 模型迭代地提高其执行任务的能力,如图像分类或分割。 图像分类或分割等任务的能力。这种 迭代改进使网络能从训练数据中归纳出模式,而不是简单地记忆特定的模式。 训练数据中的模式,而不是简单地记忆特定 例子。深度学习框架,如 PyTorchTensorFlow提供了内置 机制来控制这些周期的训练循环。

历时 vs. 批量 vs. 迭代

要了解训练循环如何高效运作,必须区分三个密切相关的术语。 初学者经常混淆的三个密切相关的术语:

  • 纪元:将整个数据集通过网络一次的过程。
  • 批量大小:模型更新权重前处理的样本数量。将海量数据集一次性加载到内存中通常是不可能的。 因此,数据会被分成较小的组,称为批次。
  • 迭代:单一更新步骤,即模型处理一个批次并执行 反向传播来调整权重。

例如,如果您有一个包含 10,000 张图像的数据集,并将批量大小设置为 100,则需要 100 次迭代来完成一个 epoch 完成一个历元。

确定最佳纪元数

选择正确的历元数是超参数调整的一个关键方面。 超参数调整。训练周期太短 或过多的循环都会导致性能不理想。

  1. 不合适:如果模型训练的 epoch 太少,可能无法捕捉到数据的内在逻辑,导致在训练集和测试集上的性能都很差。 在训练集和测试集上都表现不佳。
  2. 过度拟合:如果训练持续时间过长,模型可能会开始记忆噪音和训练集的特定细节。 集。在训练精度提高的同时 在未见过的验证数据上的性能会下降。

为了减少这些问题,工程师通常会使用 早期停止技术。 这种技术会在验证损失停止改善时停止训练,与指定的总历时无关。可视化工具 等可视化工具经常用于实时监控这些指标。 实时监控。

实际应用

纪元的概念在各种机器学习(ML)领域都很普遍。 机器学习 (ML)领域。

  • 自动驾驶:开发自动驾驶汽车 自动驾驶汽车需要强大的物体 物体检测模型。像 YOLO11这样的模型可能要经过数百次历时训练,以确保 它能在各种天气条件下可靠地识别行人和交通标志。大量的训练可确保 系统达到较高的 平均精度 (mAP)。 部署。
  • 农业监测:在 在精准农业中,无人机利用计算机 视觉来监测作物健康状况。由于农业数据集可能较小或高度特定,研究人员可能会 使用迁移学习和较少的 以对预先训练好的模型进行微调,利用 数据扩充,人为地扩大数据集,防止过度拟合。 数据集,防止过度拟合。

代码示例:使用纪元进行训练

使用时 ultralytics 库,可以直接指定历元数。该 train() 方法接受一个 epochs 参数,用于控制模型对所提供的数据进行迭代的次数。 对所提供数据的迭代次数。

from ultralytics import YOLO

# Load the YOLO11 model (recommended for latest performance)
model = YOLO("yolo11n.pt")

# Train the model for 50 epochs on the COCO8 dataset
# The 'epochs' argument defines the total passes through the data
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)

该代码段演示了如何启动训练运行,在该运行中,模型将对 "coco8 "数据集的理解进行 50 次改进。 "coco8 "数据集的理解。对于未来的发展,Ultralytics 目前正在开发 YOLO26,它将以更高的效率支持端到端训练,预计将于 2025 年底推出。

加入Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入