探索参数高效微调 (PEFT),以优化 Ultralytics YOLO26 等大型模型。了解如何降低计算成本并在 GPU 上取得 SOTA 成果。
参数高效微调 (PEFT) 是机器学习 (ML)中一种精密的优化策略,它能够在最大程度地降低计算成本的同时,将大型预训练模型定制化以适应特定任务。随着现代基础模型的参数量已增长到数十亿,更新网络中每个权重的传统训练方法在硬件和能源方面变得成本过高。PEFT 通过冻结绝大部分预训练模型权重,仅更新一小部分参数或添加轻量级适配器层来应对这一挑战。这种方法降低了进入门槛,使开发者无需工业规模的数据中心,即可在消费级GPU上取得最先进的成果。
PEFT 的核心原理依赖于迁移学习,即模型利用从 ImageNet 等大规模公共数据集中学习到的特征表示来解决新问题。在标准工作流程中,调整模型可能涉及“全量微调”,其中反向传播会调整神经网络中的每个参数。
PEFT 技术,例如LoRA (低秩适应),采取了不同的路径。它们保持模型庞大的“主干网络”静态——从而保留其通用知识——并向特定层注入小型可训练矩阵。这可以防止灾难性遗忘,即模型在学习新信息时失去原有能力的现象。通过将可训练参数的数量减少高达 99%,PEFT 显著降低了存储需求,并允许在实时推理期间,在单个基础模型中切换多个特定任务适配器。
PEFT 在边缘计算和数据隐私至关重要的行业中尤其有价值。
在 Ultralytics 生态系统中,参数效率通常通过“冻结”网络的初始层来实现。这确保了强大的特征提取器保持不变,而只有头部或后续层适应新类别。这是目标检测中 PEFT 原理的实际应用。
以下示例演示了如何在训练YOLO26模型时冻结主干网络的前 10 层,以节省计算资源:
from ultralytics import YOLO
# Load the YOLO26 model (latest stable version)
model = YOLO("yolo26n.pt")
# Train on a custom dataset with the 'freeze' argument
# freeze=10 keeps the first 10 layers static, updating only deeper layers
results = model.train(data="coco8.yaml", epochs=5, freeze=10)
对于希望扩展此过程的团队,Ultralytics Platform 提供了一个统一界面,用于管理数据集、自动化标注以及从云端监控这些高效的训练运行。
为了选择正确的模型适应策略,区分 PEFT 与类似术语会有所帮助:

开启您的机器学习未来之旅