Entdecken Sie die wichtige Rolle von Testdaten im maschinellen Lernen. Erfahren Sie, wie Sie die Leistung Ultralytics anhand unvoreingenommener Datensätze bewerten können, um die Genauigkeit in der Praxis sicherzustellen.
Testdaten sind eine bestimmte Teilmenge eines größeren Datensatzes, die ausschließlich für die Bewertung der endgültigen Leistung eines Modells für maschinelles Lernen (ML) reserviert ist. Im Gegensatz zu den Daten, die in früheren Lernphasen verwendet werden, bleiben Testdaten für den Algorithmus bis zum Ende des Entwicklungszyklus vollständig „unsichtbar“ . Diese Isolation ist entscheidend, da sie eine unvoreingenommene Bewertung darüber ermöglicht, wie gut ein Computer-Vision-Modell (CV) oder ein anderes KI-System auf neue, reale Eingaben verallgemeinert werden kann. Durch die Simulation einer Produktionsumgebung helfen Testdaten Entwicklern dabei, zu überprüfen, ob ihr Modell tatsächlich zugrunde liegende Muster gelernt hat und nicht nur die Trainingsbeispiele auswendig gelernt hat .
Im Standard-Workflow des maschinellen Lernens werden Daten in der Regel in drei verschiedene Kategorien unterteilt, die jeweils einem bestimmten Zweck dienen. Das Verständnis der Unterschiede zwischen diesen Unterteilungen ist für den Aufbau robuster Systeme der künstlichen Intelligenz (KI) von entscheidender Bedeutung.
Die ordnungsgemäße Verwaltung dieser Aufteilungen wird häufig durch Tools wie die Ultralytics erleichtert, die hochgeladene Datensätze automatisch in diese wesentlichen Kategorien einordnet, um eine strenge Modellbewertung zu gewährleisten.
Der Hauptnutzen von Testdaten liegt in ihrer Fähigkeit, Verzerrungen und Abweichungen im Datensatz detect . Wenn ein Modell bei Trainingsdaten eine Genauigkeit von 99 %, bei Testdaten jedoch nur von 60 % erreicht, deutet dies auf eine hohe Abweichung (Überanpassung) hin. Umgekehrt lässt eine schlechte Leistung bei beiden auf eine Unteranpassung schließen.
Die Verwendung eines festgelegten Testsatzes entspricht den wissenschaftlichen Prinzipien der Reproduzierbarkeit und Objektivität. Ohne einen makellosen Testsatz laufen Entwickler Gefahr, „auf den Test hin zu unterrichten“ und damit Informationen aus der Evaluierungsphase zurück in die Trainingsphase zu leiten – ein Phänomen, das als Datenleck bekannt ist. Dies führt zu übermäßig optimistischen Leistungsschätzungen, die zusammenbrechen, wenn das Modell mit realen Daten konfrontiert wird.
Testdaten sind in allen Branchen, die KI einsetzen, unerlässlich, um Sicherheit und Zuverlässigkeit zu gewährleisten, bevor Systeme in Betrieb genommen werden.
Die Verwendung des ultralytics Paket können Sie die Leistung eines Modells anhand eines zurückbehaltenen Datensatzes leicht bewerten. Während
die val Der Modus wird häufig zur Validierung während des Trainings verwendet, kann aber auch so konfiguriert werden, dass er auf einer bestimmten
in Ihrer
YAML-Konfiguration des Datensatzes.
So bewerten Sie ein vortrainiertes YOLO26- Modell, um Metriken wie mAP50 zu erhalten:
from ultralytics import YOLO
# Load a pre-trained YOLO26 model
model = YOLO("yolo26n.pt")
# Evaluate the model's performance on the validation set
# (Note: In a strict testing workflow, you would point 'data'
# to a YAML that defines a specific 'test' split and use split='test')
metrics = model.val(data="coco8.yaml")
# Print a specific metric, e.g., mAP at 50-95% IoU
print(f"Mean Average Precision (mAP50-95): {metrics.box.map}")
Dieser Prozess generiert umfassende Metriken, die es Entwicklern ermöglichen, verschiedene Architekturen objektiv zu vergleichen, wie beispielsweise YOLO26 vs. YOLO11, und sicherzustellen, dass die gewählte Lösung den definierten Projektzielen entspricht. Strenge Tests sind der letzte Schritt, um sicherzustellen, dass hohe Sicherheitsstandards für KI erfüllt werden.