Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Fokaler Verlust

Entdecken Sie, wie Focal Loss die Unausgewogenheit der Klassen bei der Objekterkennung behebt, indem es das Training auf schwierige Beispiele konzentriert, um die Genauigkeit in unausgewogenen Datensätzen zu verbessern.

Focal Loss ist eine spezielle Zielfunktion, die vor allem bei Computer-Vision-Aufgaben eingesetzt wird, um das Problem des extremen Klassenungleichgewichts während des Modelltrainings zu lösen. Sie ist besonders wertvoll in Objekterkennungsszenarien, in denen die Anzahl der Hintergrundbeispiele (negative Samples) die Anzahl der interessierenden Objekte (positive Samples) bei weitem übersteigt. Durch die dynamische Skalierung der jedem Sample zugewiesenen Strafe gewichtet Focal Loss „einfache” Beispiele – diejenigen, die das Modell bereits mit hoher Sicherheit klassifizieren kann – effektiv herunter Beispiele – also solche, die das Modell bereits classify hoher Sicherheit classify kann – und zwingt den Optimierungsprozess, sich auf „schwierige” Beispiele zu konzentrieren, die schwer zu classify sind. Dieser gezielte Ansatz verhindert, dass die große Anzahl einfacher Negativbeispiele das Trainingssignal überlagert, und verbessert so die Genauigkeit des Modells bei seltenen, aber kritischen Objekten.

Lösung des Problems der Klassenungleichheit

In vielen Deep-Learning-Anwendungen (DL), insbesondere bei einstufigen Objektdetektoren, umfasst der Trainingsprozess die Auswertung Tausender potenzieller Positionen in einem Bild. Die meisten dieser Positionen enthalten keine Objekte und lassen sich leicht als Hintergrund identifizieren. Standardfunktionen wie Cross-Entropy Loss behandeln alle Fehlklassifikationen gleich. Infolgedessen kann der kumulierte Fehler aus Tausenden von einfachen Hintergrundbeispielen das Signal der wenigen schwierigen positiven Beispiele überlagern, was zu einem Modell führt, das zur Mehrheitsklasse hin verzerrt ist.

Focal Loss modifiziert die Standardverlustberechnung durch Einführung eines Fokussierungsparameters, der typischerweise als Gamma ($\gamma$) bezeichnet wird. Mit steigender Wahrscheinlichkeit der richtigen Klasse (d. h. wenn das Beispiel „einfach” ist) reduziert der Modulationsfaktor den Verlustbeitrag auf nahezu Null. Umgekehrt bleibt der Verlust bei falsch klassifizierten oder unsicheren Beispielen („schwierigen” Fällen) erheblich. Dieser Mechanismus stellt sicher, dass der Optimierungsalgorithmus die Modellgewichte auf der Grundlage der Beispiele aktualisiert, die tatsächlich verbessert werden müssen, anstatt einfach nur zu validieren, was das Modell bereits weiß.

Anwendungsfälle in der Praxis

Die Fähigkeit, mit unausgewogenen Datensätzen umzugehen, macht Focal Loss zu einem Eckpfeiler moderner KI-Lösungen in sicherheitskritischen und hochpräzisen Bereichen.

  • Medizinische Diagnostik: Bei der medizinischen Bildanalyse stellt die Identifizierung von Pathologien oft ein „Nadel im Heuhaufen“-Problem dar. Bei der Erkennung kleiner Läsionen in einem CT-Scan beispielsweise macht gesundes Gewebe 99 % des Bildes aus. Eine Standard-Verlustfunktion könnte eine hohe Genauigkeit erzielen, indem sie einfach für jedes Pixel „gesund” annimmt. Durch die Implementierung von Focal Loss können Modelle, die in der KI im Gesundheitswesen verwendet werden, das reichlich vorhandene gesunde Gewebe ignorieren und sich beim Lernen auf die seltenen, subtilen Merkmale von Tumoren oder Frakturen konzentrieren, wodurch die Erinnerungsfähigkeit für lebensrettende Erkennungen erheblich verbessert wird.
  • Autonomes Fahren: Systeme, die autonome Fahrzeuge antreiben, müssen detect , Radfahrer und Trümmer vor dem Hintergrund von Straßen, Gebäuden und Himmel detect . Der Hintergrund ist leicht zu erfassen, aber kleine, entfernte Hindernisse sind schwierig. Focal Loss ermöglicht es dem Wahrnehmungssystem, diesedetect zu priorisieren, sodass das Fahrzeug selbst dann keine kritischen Gefahren übersieht, wenn diese nur einen winzigen Teil des Sichtfeldes einnehmen . Dies ist entscheidend für eine zuverlässige Fußgängererkennung und die allgemeine Sicherheit.

Implementierung mit Ultralytics

Die ultralytics Die Bibliothek enthält optimierte Implementierungen von Verlustfunktionen zur Unterstützung des Trainings modernster Modelle wie YOLO26Während das Training auf hohem Niveau über das UltralyticsEntwickler können auf bestimmte Verlustkomponenten für benutzerdefinierte Pipelines zugreifen.

Das folgende Beispiel zeigt, wie man Focal Loss initialisiert und den Fehler zwischen Vorhersagewerten und Zielkennzeichnungen mithilfe der ultralytics Dienstprogramm-Paket.

import torch
from ultralytics.utils.loss import FocalLoss

# Initialize Focal Loss with a standard gamma value
# Gamma=1.5 aggressively down-weights easy examples
criterion = FocalLoss(gamma=1.5)

# Example: Predictions (logits) and binary Ground Truth labels
predictions = torch.tensor([[0.8], [-1.5], [0.1]], requires_grad=True)
targets = torch.tensor([[1.0], [0.0], [1.0]])

# Calculate the loss
loss = criterion(predictions, targets)
print(f"Computed Focal Loss: {loss.item():.4f}")

Abgrenzung zu verwandten Konzepten

Zu verstehen, wie Focal Loss in das Gesamtbild der Fehlermessung passt, ist hilfreich für die Auswahl der richtigen Trainingsstrategie.

  • Focal Loss vs. Cross-Entropy Loss: Cross-Entropy Loss ist die grundlegende Metrik für die Klassifizierung, die Vorhersagen auf der Grundlage logarithmischer Fehler bestraft. Focal Loss ist streng genommen eine Erweiterung von Cross-Entropy. Wenn der Fokussierungsparameter auf Null gesetzt ist, kehrt Focal Loss mathematisch zur Standard-Cross-Entropy zurück. Der wesentliche Unterschied besteht in der Fähigkeit von Focal Loss, einfache Negative weniger stark zu gewichten.
  • Focal Loss vs. IoU : Während Focal Loss für die Klassifizierung (Bestimmung, was ein Objekt ist) konzipiert ist, wird Intersection over Union (IoU) für die Lokalisierung (Bestimmung, wo sich ein Objekt befindet) verwendet. Moderne Detektoren wie YOLO11 und YOLO26 verwenden eine zusammengesetzte Verlustfunktion, die Focal Loss (oder seine Varianten wie Varifocal Loss) für Klassenwahrscheinlichkeiten und IoU Verlust für die Bounding-Box-Regression kombiniert.
  • Focal Loss vs. OHEM: Online Hard Example Mining (OHEM) ist eine ältere Strategie, bei der einfache Beispiele vollständig verworfen werden und nur die schwierigsten Beispiele in einem Batch trainiert werden. Focal Loss wird heute im Allgemeinen bevorzugt, da es einen kontinuierlichen Skalierungsfaktor anstelle einer harten Abgrenzung verwendet und so ein glatteres und stabileres Trainingssignal aus allen Trainingsdaten liefert.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten