针对特定任务对 Ultralytics YOLO 等机器学习模型进行微调。在此了解方法、应用和最佳实践!
微调是机器学习(ML)的一项核心技术,它是指将在大型通用数据集上预先训练好的模型,在较小的专用数据集上进一步训练。这一过程是迁移学习的一种形式,它可以调整模型的学习知识,使其在特定任务中表现出色,而无需从头开始训练模型。通过从一个强大的基础模型开始,开发人员可以用更少的数据和计算资源实现高性能,斯坦福人工智能实验室等机构也在探索这一概念。
这一过程从一个模型开始,该模型的权重已经在一个广泛的数据集上进行了优化,如视觉模型的ImageNet或大型语言模型 (LLM) 的海量文本语料库。这种预训练模型已经能够理解一般特征,如图像中的边缘和纹理,或文本中的语法和语义。然后,在为目标应用定制的自定义数据集上继续进行微调训练,通常使用较低的学习率。这将调整模型参数,使其专门用于新任务的特定细微差别。PyTorch和TensorFlow等框架为实施微调工作流提供了广泛的工具。
微调技术广泛应用于计算机视觉 (CV)和自然语言处理 (NLP )。
必须将微调与其他模型适应技术区分开来:
Ultralytics 简化了针对定制应用微调其最先进的YOLO模型的过程。用户可以轻松加载预训练的权重,并开始在自己的数据集上进行图像分类、检测或分割等任务的训练。Ultralytics HUB平台进一步简化了这一工作流程,为管理数据集、训练模型和最终部署提供了集成解决方案。为了获得最佳性能,微调通常与仔细的超参数调整相结合。