Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Modellüberwachung

Entdecken Sie die Bedeutung der Modellüberwachung in der KI. Lernen Sie, wie Sie track und Leistungskennzahlen track und die Ultralytics nutzen können, um Ultralytics robust zu halten.

Modellüberwachung ist die fortlaufende Praxis der Verfolgung, Analyse und Bewertung der Leistung von Machine-Learning-Modellen (ML), nachdem diese in der Produktion eingesetzt wurden. Während herkömmliche Software in der Regel deterministisch arbeitet – d. h. bei einer bestimmten Eingabe unbegrenzt dieselbe Ausgabe erwartet –, basieren Vorhersagemodelle auf statistischen Mustern, die sich im Laufe der Zeit weiterentwickeln können. Wenn sich die realweltlichen Rahmenbedingungen ändern, können sich auch die in diese Modelle eingespeisten Daten verschieben, was zu einer Verschlechterung der Genauigkeit oder Zuverlässigkeit führt. Die Überwachung stellt sicher, dass KI-Systeme weiterhin einen Mehrwert liefern, indem sie Probleme wie Daten-Drift oder Konzept-Drift identifizieren, bevor sie sich negativ auf die Geschäftsergebnisse oder die Benutzererfahrung auswirken.

Die Bedeutung der Überwachung nach der Bereitstellung

Im Lebenszyklus des Machine Learning Operations (MLOps) ist die Bereitstellung nicht das Ende. Ein anhand historischer Daten trainiertes Modell stellt eine Momentaufnahme der Welt zu einem bestimmten Zeitpunkt dar. Im Laufe der Zeit können externe Faktoren – wie saisonale Veränderungen, wirtschaftliche Verschiebungen oder neue Nutzerverhalten – die zugrunde liegende Datenverteilung verändern. Dieses als Datenverschiebung bekannte Phänomen kann zu „stillen Ausfällen” führen, bei denen das Modell Vorhersagen ohne Fehlermeldungen erstellt, die Qualität dieser Vorhersagen jedoch unter akzeptable Standards fällt.

Eine effektive Überwachung macht diese subtilen Veränderungen sichtbar. Durch die Festlegung von Basiswerten anhand von Validierungsdaten und deren Vergleich mit Live-Produktionsströmen können Ingenieurteams detect frühzeitig detect . Dieser proaktive Ansatz ermöglicht eine zeitnahe Neutrainierung oder Aktualisierung von Modellen und stellt sicher, dass Systeme wie autonome Fahrzeuge oder Algorithmen zur Betrugserkennung sicher und effektiv bleiben.

Wichtige Kennzahlen bei der Modellüberwachung

Um ein gesundes ML-System aufrechtzuerhalten, track Praktiker track Vielzahl von Metriken, die im Allgemeinen in drei Kategorien fallen:

  • Kennzahlen zur Dienstzuverlässigkeit: Diese track Betriebszustand der Inferenz-Engine. Zu den wichtigsten Indikatoren gehören die Inferenzlatenz (wie lange eine Vorhersage dauert) und die Auslastung der Systemressourcen, wie z. B. GPU Speichernutzung. Tools wie Prometheus werden häufig verwendet, um diese Metriken auf Systemebene zu erfassen und zu speichern.
  • Datenqualitätsmetriken: Diese stellen sicher, dass die Eingabedaten mit dem erwarteten Schema und der statistischen Verteilung übereinstimmen. Beispielsweise könnte ein plötzlicher Anstieg fehlender Werte oder eine Verschiebung des Mittelwerts eines Merkmals auf eine unterbrochene vorgelagerte Datenpipeline hinweisen. Statistische Tests wie der Kolmogorov-Smirnov-Test helfen dabei, den Abstand zwischen Trainings- und Produktionsverteilungen zu quantifizieren.
  • Leistungskennzahlen: Im Idealfall überwachen Teams Ground-Truth-Kennzahlen wie Genauigkeit, Präzision und Recall. In der Produktion sind echte Labels jedoch oft verzögert oder nicht verfügbar. In solchen Fällen werden Proxy-Kennzahlen wie Vorhersage- Konfidenzwerte oder die Stabilität der Ausgabeverteilung verwendet, um den Zustand zu beurteilen.

Anwendungsfälle in der Praxis

Die Modellüberwachung ist in verschiedenen Branchen von entscheidender Bedeutung, in denen automatisierte Entscheidungen Auswirkungen auf den Betrieb und die Sicherheit haben:

  • Computer Vision in der Fertigung: In der intelligenten Fertigung detect visuelle Inspektionsmodelle detect in Fertigungsstraßen. Im Laufe der Zeit können sich Staubablagerungen auf Kameralinsen ansammeln oder sich die Beleuchtung in der Fabrik verändern, was dazu führt, dass das Modell fehlerfreie Teile fälschlicherweise als fehlerhaft einstuft. Die Überwachung der Rate positiver Erkennungen hilft dabei, diese Abweichung zu erkennen, sodass mithilfe Ultralytics Wartungs- oder Neukalibrierungsmaßnahmen eingeleitet werden können.
  • Aufdeckung von Finanzbetrug: Banken nutzen ML, um verdächtige Transaktionen zu kennzeichnen. Kriminelle passen ihre Strategien ständig an, um einer Entdeckung zu entgehen, was zu einer Konzeptverschiebung führt. Durch die Überwachung des Verhältnisses der gekennzeichneten Transaktionen und die Untersuchung des Feedbacks von menschlichen Prüfern können Datenwissenschaftler Modelle schnell aktualisieren, um neue Betrugsmuster zu erkennen .

Überwachung vs. Beobachtbarkeit

Es ist hilfreich, zwischen Überwachung und Beobachtbarkeit zu unterscheiden, da sie sich gegenseitig ergänzen. Die Modellüberwachung ist in der Regel reaktiv und konzentriert sich auf „bekannte Unbekannte“. Dabei werden Dashboards verwendet, um Teams zu alarmieren, wenn bestimmte Metriken einen Schwellenwert überschreiten (z. B. wenn die Genauigkeit unter 90 % fällt). Die Beobachtbarkeit geht tiefer auf die „unbekannten Unbekannten” ein und liefert detaillierte Protokolle und Spuren, anhand derer Ingenieure debuggen können, warum eine bestimmte Vorhersage fehlgeschlagen ist oder warum ein Modell eine Verzerrung in der KI gegenüber einer bestimmten Bevölkerungsgruppe aufweist.

Beispiel: Verfolgung der Vorhersagezuverlässigkeit

Eine einfache Möglichkeit, den Zustand eines Computervisionsmodells zu überwachen, besteht darin, track durchschnittliche Zuverlässigkeit seiner Vorhersagen track . Ein signifikanter Rückgang der Zuverlässigkeit könnte darauf hindeuten, dass das Modell auf Daten stößt, für deren Verarbeitung es nicht trainiert wurde.

Hier ist ein Python , das YOLO26 verwendet, um Konfidenzwerte aus einer Reihe von Bildern zu Überwachungszwecken zu extrahieren:

import numpy as np
from ultralytics import YOLO

# Load the YOLO26 model
model = YOLO("yolo26n.pt")

# Run inference on a source (e.g., a video frame or image list)
results = model(["bus.jpg", "zidane.jpg"])

# Extract confidence scores for monitoring
for i, result in enumerate(results):
    # Get the confidence scores for all detected objects
    confidences = result.boxes.conf.cpu().numpy()

    if len(confidences) > 0:
        avg_conf = np.mean(confidences)
        print(f"Image {i}: Average Detection Confidence: {avg_conf:.3f}")
    else:
        print(f"Image {i}: No objects detected.")

Durch die regelmäßige Protokollierung dieser Statistiken können Teams Trends im Zeitverlauf mit Tools wie Grafana oder den Überwachungsfunktionen der Ultralytics visualisieren und so sicherstellen, dass Modelle in dynamischen Umgebungen robust bleiben.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten