Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Pérdida focal

Descubra cómo Focal Loss aborda el desequilibrio de clases en la detección de objetos, centrando el entrenamiento en ejemplos difíciles para mejorar la precisión en conjuntos de datos desequilibrados.

La pérdida focal es una función objetivo especializada que se utiliza principalmente en tareas de visión por ordenador para abordar el reto del desequilibrio extremo entre clases durante el entrenamiento del modelo. Es especialmente valiosa en escenarios de detección de objetos en los que el número de ejemplos de fondo (muestras negativas) supera ampliamente al de objetos de interés (muestras positivas). Al escalar dinámicamente la penalización asignada a cada muestra, la pérdida focal reduce eficazmente la ponderación de los ejemplos «fáciles» , aquellos que el modelo ya puede classify alta confianza, y obliga al proceso de optimización a concentrarse en los ejemplos «difíciles» que son difíciles de classify. Este enfoque específico evita que la gran cantidad de negativos fáciles abrume la señal de entrenamiento, mejorando así la precisión del modelo en objetos escasos pero críticos .

Resolver el problema del desequilibrio de clases

En muchas aplicaciones de aprendizaje profundo (DL), en particular en los detectores de objetos de una sola etapa, el proceso de entrenamiento implica evaluar miles de ubicaciones candidatas en una imagen. La mayoría de estas ubicaciones no contienen objetos y se identifican fácilmente como fondo. Las funciones estándar, como la pérdida de entropía cruzada, tratan todas las clasificaciones erróneas por igual. En consecuencia, el error acumulado de miles de muestras de fondo fáciles puede ahogar la señal de las pocas muestras positivas difíciles, lo que da lugar a un modelo sesgado hacia la clase mayoritaria.

La pérdida focal modifica el cálculo estándar de la pérdida introduciendo un parámetro de enfoque, normalmente denominado gamma ($\gamma$). A medida que aumenta la probabilidad de la clase correcta (lo que significa que el ejemplo es «fácil»), el factor modulador reduce la contribución de la pérdida a casi cero. Por el contrario, para los ejemplos mal clasificados o inciertos (casos «difíciles»), la pérdida sigue siendo significativa. Este mecanismo garantiza que el algoritmo de optimización actualice los pesos del modelo basándose en los ejemplos que realmente requieren mejora, en lugar de limitarse a validar lo que el modelo ya sabe.

Aplicaciones en el mundo real

La capacidad de manejar conjuntos de datos desequilibrados convierte a Focal Loss en una piedra angular de las soluciones modernas de IA en campos críticos para la seguridad y de alta precisión.

  • Diagnóstico médico: En el análisis de imágenes médicas, identificar patologías a menudo supone un problema similar a «buscar una aguja en un pajar». Por ejemplo, al detectar pequeñas lesiones en una tomografía computarizada, el tejido sano constituye el 99 % de la imagen. Una función de pérdida estándar podría alcanzar una alta precisión simplemente adivinando «sano» para cada píxel. Al implementar la pérdida focal, los modelos utilizados en la IA en el ámbito sanitario pueden ignorar el abundante tejido sano y centrar el aprendizaje en las características raras y sutiles de los tumores o fracturas, lo que mejora significativamente la recuperación de detecciones que salvan vidas.
  • Conducción autónoma: los sistemas que impulsan los vehículos autónomos deben detect , ciclistas y escombros en un entorno con carreteras, edificios y cielo. El fondo es fácil de aprender, pero los obstáculos pequeños y lejanos son difíciles. Focal Loss permite al sistema de percepción dar prioridad a estosdetect , lo que garantiza que el vehículo no pase por alto peligros críticos, incluso cuando estos ocupan solo una pequeña fracción del campo visual . Esto es crucial para una detección robusta de peatones y la seguridad general.

Aplicación con Ultralytics

En ultralytics La biblioteca incluye implementaciones optimizadas de funciones de pérdida para respaldar el entrenamiento de modelos de última generación como YOLO26. Mientras que el entrenamiento de alto nivel se automatiza a través del Plataforma Ultralytics, los desarrolladores pueden acceder a componentes de pérdida específicos para tuberías personalizadas.

El siguiente ejemplo muestra cómo inicializar Focal Loss y calcular el error entre las puntuaciones de predicción y las etiquetas de destino utilizando el ultralytics paquete de utilidades.

import torch
from ultralytics.utils.loss import FocalLoss

# Initialize Focal Loss with a standard gamma value
# Gamma=1.5 aggressively down-weights easy examples
criterion = FocalLoss(gamma=1.5)

# Example: Predictions (logits) and binary Ground Truth labels
predictions = torch.tensor([[0.8], [-1.5], [0.1]], requires_grad=True)
targets = torch.tensor([[1.0], [0.0], [1.0]])

# Calculate the loss
loss = criterion(predictions, targets)
print(f"Computed Focal Loss: {loss.item():.4f}")

Distinción de conceptos afines

Comprender cómo encaja la pérdida focal en el panorama más amplio de la medición de errores es útil para seleccionar la estrategia de entrenamiento adecuada .

  • Pérdida focal frente a pérdida de entropía cruzada: La pérdida de entropía cruzada es la métrica fundamental para la clasificación que penaliza las predicciones basadas en el error logarítmico. La pérdida focal es estrictamente una extensión de la entropía cruzada. Si el parámetro de enfoque se establece en cero, la pérdida focal se revierte matemáticamente a la entropía cruzada estándar. La diferencia clave es la capacidad de la pérdida focal para reducir la ponderación de los negativos fáciles.
  • Pérdida focal frente a IoU : Mientras que la pérdida focal está diseñada para la clasificación (determinar qué es un objeto), la intersección sobre unión (IoU) se utiliza para la localización (determinar dónde está un objeto). Los detectores modernos como YOLO11 y YOLO26 utilizan una función de pérdida compuesta que combina la pérdida focal (o sus variantes, como la pérdida varifocal) para las probabilidades de clase y la pérdida IoU para la regresión del cuadro delimitador.
  • Pérdida focal frente a OHEM: La minería de ejemplos difíciles en línea (OHEM) es una estrategia más antigua que descarta por completo los ejemplos fáciles y entrena solo con los más difíciles de un lote. Hoy en día se prefiere generalmente la pérdida focal porque utiliza un factor de escala continuo en lugar de un corte duro, lo que proporciona una señal de entrenamiento más suave y estable a partir de todos los datos de entrenamiento.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora