了解参数高效微调 (PEFT),它以最少的资源调整大型 AI 模型。 节省成本、防止过度拟合并优化部署!
参数高效微调(PEFT)是机器学习(ML)中的一种复杂策略,旨在调整大型的 机器学习(ML)中的一种复杂策略,旨在使预先训练好的大型模型适应特定的下游任务,而无需重新训练整个网络、 参数高效微调(PEFT)是机器学习(ML)中的一种复杂策略,旨在使预先训练好的大型模型适应特定的下游任务,而无需承担重新训练整个网络的计算负担。作为 自然语言处理和计算机视觉(CV 处理和计算机视觉 (CV)等领域的基础模型已扩展到 参数已达数十亿,传统的 微调--更新模型中的每一个权重--对于许多用户来说都变得过于昂贵。 对许多用户来说都变得过于昂贵。PEFT 可以解决这个问题,它冻结了大部分预训练模型的权重,只更新一小部分权重。 模型权重,只更新一小部分参数,或添加一些新的训练参数。 参数,或添加几个新的可训练层。这种方法大大降低了硬件门槛,允许 研究人员和工程师可以使用消费级 GPU来定制最先进的模型,同时保持 媲美全面训练的性能。
PEFT 背后的核心概念是 迁移学习,即模型利用 从海量数据集(如ImageNet 或 Common Crawl)中获得的知识来解决数据有限的新问题。 与完全微调不同,PEFT 会修改模型架构或训练过程,以实现 "参数高效"。 高效"。这使得调整后的模型占用空间很小,通常只有几兆字节,而完整模型则需要数千兆字节。 而完整模型拷贝则需要数千兆字节。这种效率对于防止 灾难性遗忘。 遗忘是指模型在学习新信息时失去原有的一般能力。
PEFT 框架内的常见技术包括
PEFT 在各行各业普及强大的人工智能工具方面发挥了重要作用。
在Ultralytics 模型中,参数效率通常是通过在训练过程中 "冻结 "Ultralytics 层来实现参数效率。这样可以确保特征提取层保持不变,只有头部(负责做出最终预测的模型部分)才会更新。 头(模型中负责进行最终预测的部分)进行更新。
下面的示例演示了如何使用Ultralytics 实现一种简单的参数效率训练形式 通过冻结模型的前 10YOLO 实现简单的参数效率训练。
from ultralytics import YOLO
# Load the YOLO11 model (latest stable version)
model = YOLO("yolo11n.pt")
# Train the model on a specific dataset
# The 'freeze=10' argument freezes the first 10 layers (the backbone)
# This reduces the number of trainable parameters significantly
results = model.train(data="coco8.yaml", epochs=5, freeze=10)
了解 PEFT 与类似术语的区别对于选择正确的策略至关重要:
通过最大限度地降低适应的计算成本,PEFT 可以为以下任务创建高度专业化的模型 从自动驾驶汽车感知 到分析 卫星图像、 让更多的开发人员可以使用先进的人工智能。

