探索对比学习的力量,这是一种自监督技术,可以用最少的标记数据实现强大的数据表示。
对比学习是一种强大的 机器学习 (ML) 模型学习稳健的数据表示,而无需手动标记。通过 神经网络来区分相似和 这种方法允许算法理解数据集的底层结构。而不是 直接预测特定类别,而是通过比较成对的示例进行学习,提取相关项目的表征--称为正对表征。 将相关项目的表征(称为正对)在嵌入空间中靠得更近,而将不相关的项目表征(称为负对)在嵌入空间中靠得更近。 嵌入空间,同时将不相关的项目(负 对拉开。这种能力使它成为现代 自监督学习的基石,使 开发人员可以利用大量无标记数据。
对比学习的核心机制围绕实例辨别这一概念展开。训练 训练过程一般包括三个关键部分:数据增强、编码器网络和对比损失函数。 函数。
通过对比方法学习到的表征非常容易迁移到下游任务中。
了解对比学习与其他范式的区别有助于选择正确的方法。 方法。
虽然训练一个完整的对比循环需要大量的计算,但你可以利用那些通过类似的预训练技术学习到强健 特征的模型。下面的示例演示了加载预训练的 图像分类模型来处理图像。 图像,该模型利用了在训练过程中优化的底层特征提取功能。
from ultralytics import YOLO
# Load a pre-trained YOLO11 classification model
# The backbone of this model has learned to extract powerful features
model = YOLO("yolo11n-cls.pt")
# Run inference on a sample image
# This process utilizes the learned feature embeddings to predict the class
results = model("https://ultralytics.com/images/bus.jpg")
# Display the top predicted class names
print(results[0].names[results[0].probs.top1])
尽管对比学习取得了成功,但它也面临着挑战。它需要仔细选择反义词对;如果反义词样本太容易区分,模型就会停止有效学习。 负样本太容易区分,模型就会停止有效学习。像 MoCo(动量对比)等方法引入了记忆库,以高效处理大量负样本。 此外,训练往往需要大量的时间。此外,训练通常需要大量的计算资源、 例如高性能GPU。随着 随着研究的深入,Ultralytics 将继续在研发中探索这些技术,用于即将推出的模型,如 YOLO26 等模型的研发中继续探索这些技术,旨在提供更快、更小、更准确的 旨在通过改进模型从各种未经整理的数据中学习的方式,提供更快、更小、更准确的检测系统。