Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

Loss-Funktion

Entdecken Sie die Rolle von Verlustfunktionen im maschinellen Lernen, ihre Arten, Bedeutung und realen KI-Anwendungen wie YOLO und Objekterkennung.

Eine Verlustfunktion, auch bekannt als Kostenfunktion oder Zielfunktion, ist eine grundlegende Komponente im maschinellen Lernen (ML) und Deep Learning (DL). Sie quantifiziert die Differenz – oder den "Verlust" – zwischen der vorhergesagten Ausgabe eines Modells und der tatsächlichen Ground-Truth-Bezeichnung für ein gegebenes Datenelement. Der durch die Verlustfunktion berechnete Wert dient als Maß dafür, wie schlecht das Modell arbeitet. Das Hauptziel während des Modelltrainings ist die Minimierung dieses Wertes, wodurch die Genauigkeit und Leistung des Modells verbessert werden.

Wie Loss-Funktionen funktionieren

Während jeder Iteration des Trainings verarbeitet das Modell einen Batch von Trainingsdaten und trifft Vorhersagen. Die Verlustfunktion vergleicht diese Vorhersagen dann mit den tatsächlichen Labels. Ein höherer Verlustwert deutet auf eine größere Diskrepanz und einen größeren Korrekturbedarf hin, während ein niedrigerer Verlustwert bedeutet, dass die Vorhersagen des Modells näher an den tatsächlichen Werten liegen.

Dieser Verlustwert ist entscheidend, da er das Signal liefert, das das Modell zum Lernen benötigt. Dieses Signal wird von einem Optimierungsalgorithmus wie dem Stochastic Gradient Descent (SGD) verwendet, um die internen Parameter des Modells oder die Modellgewichte anzupassen. Der Prozess der Backpropagation berechnet den Gradienten der Verlustfunktion in Bezug auf diese Gewichte und gibt die Richtung an, in der die Gewichte angepasst werden sollten, um den Verlust zu reduzieren. Dieser iterative Prozess der Verlustberechnung und Gewichtungsaktualisierung ermöglicht es dem Modell, sich schrittweise einem Zustand anzunähern, in dem es hochpräzise Vorhersagen treffen kann.

Gängige Arten von Loss-Funktionen

Die Wahl der Verlustfunktion hängt stark von der spezifischen Aufgabe ab, die das Modell lösen soll. Unterschiedliche Probleme erfordern unterschiedliche Arten der Fehlermessung. Einige gängige Typen sind:

  • Mittlerer quadratischer Fehler (MSE): Eine beliebte Verlustfunktion für Regressionsaufgaben, bei denen das Ziel darin besteht, einen kontinuierlichen numerischen Wert vorherzusagen. Er berechnet den Durchschnitt der Quadrate der Differenzen zwischen den vorhergesagten und den tatsächlichen Werten.
  • Cross-Entropy-Loss: Weit verbreitet für Bildklassifizierungsaufgaben. Sie misst die Leistung eines Klassifizierungsmodells, dessen Ausgabe ein Wahrscheinlichkeitswert zwischen 0 und 1 ist. Sie ist effektiv beim Trainieren von Modellen zur Unterscheidung zwischen mehreren Klassen, wie z. B. der Klassifizierung von Bildern im ImageNet-Datensatz.
  • Intersection over Union (IoU) Loss: Varianten von IoU sind für Objekterkennungsaufgaben unerlässlich. Diese Verlustfunktionen, wie GIoU, DIoU und CIoU, messen die Diskrepanz zwischen der vorhergesagten Bounding Box und der Ground-Truth-Box. Sie sind integraler Bestandteil des Trainings genauer Objektdetektoren wie Ultralytics YOLO11.
  • Dice Loss: Wird häufig in der Bildsegmentierung verwendet, insbesondere in der medizinischen Bildanalyse, um die Überlappung zwischen vorhergesagten und tatsächlichen Segmentierungsmasken zu messen. Es ist besonders nützlich für den Umgang mit Klassenungleichgewicht.

Anwendungsfälle in der Praxis

Loss-Funktionen sind der Kern des Trainings nahezu jedes Deep-Learning-Modells.

  1. Autonome Fahrzeuge: Bei der Entwicklung von autonomen Fahrzeugen werden Objekterkennungsmodelle trainiert, um Fußgänger, andere Autos und Verkehrsschilder zu identifizieren. Während des Trainings kombiniert eine Verlustfunktion mehrere Komponenten: Ein Teil berechnet den Fehler bei der Klassifizierung jedes Objekts (z. B. Auto vs. Fußgänger), während ein anderer Teil, oft ein IoU-basierter Verlust, den Fehler bei der Lokalisierung des Begrenzungsrahmens des Objekts berechnet. Die Minimierung dieses kombinierten Verlusts trägt dazu bei, robuste Modelle für eine sichere Navigation zu erstellen, eine Schlüsselkomponente von KI in Automobillösungen.
  2. Medizinische Diagnose: In der KI im Gesundheitswesen werden Modelle wie U-Net für die semantische Segmentierung trainiert, um Tumore in medizinischen Scans zu identifizieren. Eine Verlustfunktion wie Dice Loss oder eine Kombination aus Cross-Entropy und Dice Loss wird verwendet, um die vom Modell vorhergesagte Tumormaske mit der von einem Radiologen annotierten Maske zu vergleichen. Durch die Minimierung dieses Verlusts in einem Datensatz medizinischer Bilder lernt das Modell, pathologische Regionen genau abzugrenzen, was zu schnelleren und präziseren Diagnosen beiträgt.

Beziehung zu anderen Schlüsselkonzepten

Es ist wichtig, Verlustfunktionen von anderen verwandten Konzepten im ML zu unterscheiden.

  • Loss-Funktion vs. Evaluationsmetriken: Dies ist eine entscheidende Unterscheidung. Loss-Funktionen werden während des Trainings verwendet, um den Optimierungsprozess zu steuern. Sie müssen differenzierbar sein, um gradientenbasiertes Lernen zu ermöglichen. Im Gegensatz dazu werden Evaluationsmetriken wie Genauigkeit, Präzision, Recall und mittlere durchschnittliche Präzision (mAP) nach dem Training (auf Validierungsdaten oder Testdaten) verwendet, um die reale Leistung eines Modells zu bewerten. Obwohl ein niedrigerer Loss-Wert im Allgemeinen mit besseren Metrikwerten korreliert, dienen sie unterschiedlichen Zwecken. In unserem Leitfaden erfahren Sie mehr über Leistungsmetriken.
  • Loss-Funktion vs. Optimierungsalgorithmus: Die Loss-Funktion definiert das Ziel—was minimiert werden muss. Der Optimierungsalgorithmus, wie z. B. der Adam-Optimierer, definiert den Mechanismus—wie der Loss minimiert werden kann, indem die Modellgewichte basierend auf den berechneten Gradienten und der Lernrate aktualisiert werden.
  • Overfitting und Underfitting: Die Überwachung des Verlusts sowohl in den Trainings- als auch in den Validierungsdatensätzen ist entscheidend für die Diagnose dieser häufigen Probleme. Overfitting tritt wahrscheinlich auf, wenn der Trainingsverlust weiter abnimmt, während der Validierungsverlust zu steigen beginnt. Underfitting wird durch hohe Verlustwerte in beiden Datensätzen angezeigt. Diese Erkenntnisse werden in Anleitungen wie unseren Tipps für das Modelltraining erläutert.

Das Verständnis von Verlustfunktionen ist für jeden, der an der Entwicklung und dem Training von KI-Modellen beteiligt ist, unerlässlich. Plattformen wie Ultralytics HUB abstrahieren einen Großteil dieser Komplexität, indem sie die Implementierung und Optimierung von Verlustfunktionen automatisch handhaben, was die Entwicklung fortschrittlicher Computer Vision (CV)-Modelle zugänglicher macht.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert