针对特定任务微调机器学习模型,例如 Ultralytics YOLO。在此了解方法、应用和最佳实践!
微调是机器学习 (ML)中的一项核心技术,它指的是在一个大型通用数据集上预训练的模型,然后在较小的专用数据集上进一步训练。这个过程是一种迁移学习,它使模型能够调整其已学习的知识,从而在特定任务中表现出色,而无需从头开始训练模型。通过从强大的基础模型开始,开发人员可以用更少的数据和计算资源来实现高性能,斯坦福人工智能实验室等机构对这一概念进行了探索。
该过程从一个模型开始,该模型的权重已经在广泛的数据集(例如用于视觉的 ImageNet 或用于大型语言模型 (LLM) 的海量文本语料库)上进行了优化。这个预训练模型已经理解了一般特征——例如图像中的边缘和纹理或文本中的语法和语义。然后,微调继续训练过程,通常在自定义数据集上使用较低的学习率,该数据集是为目标应用程序量身定制的。这会调整模型的参数,使其专门用于新任务的特定细微差别。PyTorch 和 TensorFlow 等框架提供了广泛的工具来实现微调工作流程。
微调广泛应用于计算机视觉 (CV)和自然语言处理 (NLP)。
区分微调与其他模型适配技术非常重要:
Ultralytics 简化了针对自定义应用微调其最先进的 YOLO 模型的过程。用户可以轻松加载预训练权重,并开始在自己的数据集上进行训练,以执行图像分类、检测或分割等任务。Ultralytics HUB 平台进一步简化了此工作流程,提供了一个集成解决方案,用于管理数据集、训练模型以及最终部署。为了获得最佳性能,微调通常与仔细的超参数调整相结合。