深圳Yolo 视觉
深圳
立即加入
词汇表

病灶损失

了解 Focal Loss 如何解决物体检测中的类不平衡问题--将训练重点放在困难示例上,从而提高不平衡数据集的准确性。

焦点损失是一种专门的优化目标函数,主要应用于计算机视觉任务中,旨在解决模型训练过程中极端类不平衡的难题。该方法在目标检测场景中尤为有效——当背景样本(负样本)数量远超目标对象(正样本)时,通过动态调整每个样本的惩罚权重,焦点损失能有效降低"简单"样本(即模型已能高置信度分类的样本)的权重,迫使优化过程聚焦于难以分类的"困难"样本。这种定向策略避免了海量简单负样本淹没训练过程,确保模型在实际应用中仍能准确识别复杂场景。 ——即模型已能classify 样本——并迫使优化过程聚焦于难以classify"困难"样本。这种定向策略避免了海量易判负样本淹没训练信号,从而提升模型对稀疏但关键目标的识别精度。

解决类不平衡问题

在许多深度学习(DL)应用中, 特别是单阶段目标检测器, 训练过程需要评估图像中数千个候选位置。其中绝大多数位置 不包含目标物体,可轻易识别为背景。诸如交叉熵损失等标准函数 会将所有误分类等同对待。 因此,数千个简单背景样本累积的误差会淹没少数困难正样本的信号,导致模型产生多数类偏向。

焦点损失通过引入聚焦参数(通常记为γ)来修改标准损失计算。当正确类别的概率增加(即样本属于"简单"类别)时,调制因子会将损失贡献值降低至近乎零。 相反地,对于误判或不确定的样本 ("困难"案例),损失值仍保持显著。该机制确保优化算法 根据真正需要改进的样本更新模型权重, 而非简单验证模型已掌握的知识。

实际应用

处理不平衡数据集的能力使焦点损失成为现代人工智能解决方案在安全关键和高精度领域的基石。

  • 医学诊断: 在医学影像分析中,识别病变常面临"大海捞针"的难题。例如检测CT扫描中的微小病灶时,健康组织占据图像99%的区域。 标准损失函数可能通过简单地将每个像素标记为"健康"来实现高准确率。通过采用焦点损失,医疗健康领域的人工智能模型能够忽略大量健康组织,将学习重点集中在肿瘤或骨折等罕见且微妙的特征上,从而显著提升挽救生命的检测召回率
  • 自动驾驶: 驱动自动驾驶车辆的系统必须在道路、建筑和天空的背景中detect 、骑行者和碎片。 背景环境易于学习,但微小且 远距离的障碍物却难以识别。焦点损失机制使感知系统能够优先处理这些detect 确保车辆即使在视觉视野中仅占据极小比例时,也不会遗漏关键危险。这对实现稳健的行人检测和 整体安全性至关重要。

利用Ultralytics实施

"(《世界人权宣言》) ultralytics 该库包含损失函数的优化实现,以支持训练 诸如 YOLO26虽然高级培训通过 Ultralytics 平台开发人员可以访问特定损失组件,用于自定义管道。

以下示例演示了如何初始化焦点损失,并使用 计算预测分数与目标标签之间的误差。 ultralytics 实用工具包。

import torch
from ultralytics.utils.loss import FocalLoss

# Initialize Focal Loss with a standard gamma value
# Gamma=1.5 aggressively down-weights easy examples
criterion = FocalLoss(gamma=1.5)

# Example: Predictions (logits) and binary Ground Truth labels
predictions = torch.tensor([[0.8], [-1.5], [0.1]], requires_grad=True)
targets = torch.tensor([[1.0], [0.0], [1.0]])

# Calculate the loss
loss = criterion(predictions, targets)
print(f"Computed Focal Loss: {loss.item():.4f}")

与相关概念的区别

理解焦散损耗在更广泛的误差测量体系中的定位,有助于选择正确的训练策略。

  • 焦点损失与交叉熵损失: 交叉熵损失是 分类任务的基础度量指标,通过对预测结果施加基于对数误差的惩罚。焦点损失 本质上是交叉熵的扩展形式。当聚焦参数设为零时,焦点损失在数学上将回归 标准交叉熵。其核心差异在于焦点损失能够降低易判负例的权重。
  • 焦点损失与IoU :焦点损失专为分类任务设计(确定物体类型),而交并比(IoU)用于 定位任务(确定物体位置)。现代检测器如YOLO111等采用交并比损失,因其能有效提升物体检测的空间精度。 YOLO11 和YOLO26采用复合损失函数, 将焦点损失(或其变体如变焦损失)用于类别概率, 同时采用IoU损失进行边界框回归。
  • 焦点损失与OHEM的对比: 在线硬例挖掘(OHEM)是一种较早的策略, 它完全舍弃简单样本,仅针对批次中最难的样本进行训练。焦点损失如今更受青睐, 因为它采用连续缩放因子而非硬性截断, 能从所有训练数据中提供更平滑、更稳定的训练信号。

加入Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入