Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Datenvorverarbeitung

Erfahren Sie, wie die Datenvorverarbeitung Rohdaten in saubere Eingaben für KI umwandelt. Entdecken Sie wichtige Techniken wie Skalierung und Normalisierung, um die Genauigkeit Ultralytics zu verbessern.

Die Datenvorverarbeitung ist der entscheidende erste Schritt in der Machine-Learning-Pipeline, bei dem Rohdaten in ein sauberes und für Algorithmen verständliches Format umgewandelt werden. In der realen Welt sind Daten oft unvollständig, inkonsistent und weisen keine spezifischen Verhaltensweisen oder Trends auf, sodass sie für einen Computer „verschmutzt” oder „verrauscht” erscheinen. Die Vorverarbeitung schließt die Lücke zwischen Rohdaten und den strukturierten Eingaben, die von neuronalen Netzen benötigt werden, und hat damit einen erheblichen Einfluss auf die Genauigkeit und Effizienz des endgültigen Modells. Durch die Standardisierung und Bereinigung von Datensätzen stellen Ingenieure sicher, dass komplexe Architekturen wie YOLO26 aussagekräftige Muster statt Rauschen lernen können.

Warum ist die Datenvorverarbeitung wichtig?

Modelle für maschinelles Lernen, insbesondere solche, die in der Computervision verwendet werden, reagieren empfindlich auf die Qualität und den Umfang der Eingabedaten. Ohne ordnungsgemäße Vorverarbeitung kann es vorkommen, dass ein Modell während des Trainings Schwierigkeiten mit der Konvergenz hat oder unzuverlässige Vorhersagen liefert. Wenn beispielsweise Bilder in einem Datensatz unterschiedliche Auflösungen oder Farbskalen aufweisen, muss das Modell zusätzliche Kapazitäten aufwenden, um diese Inkonsistenzen zu verarbeiten, anstatt sich auf die eigentliche Objekterkennungsaufgabe zu konzentrieren.

Vorverarbeitungstechniken zielen im Allgemeinen darauf ab:

  • Verbesserung der Datenqualität: Entfernen Sie Fehler, Ausreißer und Duplikate, um sicherzustellen, dass der Datensatz den Problemraum genau wiedergibt.
  • Eingaben standardisieren: Skalieren Sie Merkmale (wie Pixelwerte) auf einen einheitlichen Bereich, häufig zwischen 0 und 1, um Optimierungsalgorithmen wie der Gradientenabstiegsfunktion zu helfen, reibungsloser zu funktionieren.
  • Komplexität reduzieren: Vereinfachen Sie die Datendarstellung durch Techniken wie Dimensionsreduktion, um den Lernprozess zu beschleunigen.

Wichtige Techniken in der Vorverarbeitung

Zur Vorbereitung der Daten für das Training werden mehrere Standardmethoden verwendet, die jeweils einem bestimmten Zweck in der Datenpipeline dienen.

  • Datenbereinigung: Dazu gehören die Behandlung fehlender Werte (Imputation), die Korrektur inkonsistenter Beschriftungen und das Herausfiltern beschädigter Dateien. Im Zusammenhang mit Vision AI kann dies bedeuten, dass unscharfe Bilder entfernt oder falsche Begrenzungsrahmenkoordinaten korrigiert werden.
  • Normalisierung und Skalierung: Da die Pixelintensitäten stark variieren können, stellt die Normalisierung von Bildern sicher, dass Pixel mit hohen Werten den Lernprozess nicht dominieren. Zu den gängigen Methoden gehören die Min-Max-Skalierung und die Z-Score-Normalisierung.
  • Kodierung: Kategoriale Daten, wie Klassenbezeichnungen (z. B. „Katze”, „Hund”), müssen in numerische Formate umgewandelt werden. Techniken wie One-Hot-Kodierung oder Label-Kodierung sind gängige Praxis.
  • Größenanpassung und Formatierung: Deep-Learning-Modelle erwarten in der Regel Eingaben mit einer festen Größe. Vorverarbeitungs-Pipelines passen die Größe unterschiedlicher Bilder automatisch auf eine Standardgröße an, beispielsweise 640 x 640 Pixel, was für Echtzeit-Inferenzen üblich ist.

Anwendungsfälle in der Praxis

Die Datenvorverarbeitung ist in allen Branchen allgegenwärtig und stellt sicher, dass Rohdaten in verwertbare Erkenntnisse umgewandelt werden.

Medizinische Bildgebung und Diagnose

In der KI für das Gesundheitswesen ist die Vorverarbeitung für die Analyse von Röntgen- oder MRT-Aufnahmen von entscheidender Bedeutung. Unbearbeitete medizinische Bilder enthalten oft Rauschen von Sensoren oder Abweichungen in der Beleuchtung und im Kontrast, je nach verwendetem Gerät. Vorverarbeitungsschritte wie die Histogrammausgleichung verbessern den Kontrast, um Tumore oder Frakturen besser sichtbar zu machen, während Rauschunterdrückungsfilter die Bildstruktur verdeutlichen. Diese Vorbereitung ermöglicht es den Modellen, die Tumorerkennung mit höherer Präzision durchzuführen und durch die Reduzierung von falsch-negativen Ergebnissen möglicherweise Leben zu retten.

Autonomes Fahren

Selbstfahrende Autos sind auf die Eingaben mehrerer Sensoren angewiesen, darunter LiDAR, Radar und Kameras. Diese Sensoren liefern Daten mit unterschiedlichen Raten und Maßstäben. Die Vorverarbeitung synchronisiert diese Datenströme und filtert Umgebungsgeräusche wie Regen oder Blendung heraus, bevor die Daten zusammengeführt werden. Bei autonomen Fahrzeugen wird so sichergestellt, dass das Wahrnehmungssystem ein kohärentes Bild der Straße erhält, was eine sichere Navigation und zuverlässige Fußgängererkennung in Echtzeitumgebungen ermöglicht.

Verwandte Konzepte

Es ist wichtig, die Datenvorverarbeitung von anderen Begriffen zu unterscheiden, die im Workflow des maschinellen Lernens vorkommen.

  • vs. Datenvergrößerung: Während die Vorverarbeitung Daten technisch für die Verwendung durch das Modell vorbereitet (z. B. Größenänderung), erzeugt die Vergrößerung neue Variationen bestehender Daten (z. B. Drehen oder Spiegeln von Bildern), um die Vielfalt des Datensatzes zu erhöhen . Weitere Informationen finden Sie in unserem Leitfaden zur YOLO .
  • vs. Feature Engineering: Bei der Vorverarbeitung geht es um Bereinigung und Formatierung. Beim Feature Engineering werden aus den Daten neue, aussagekräftige Variablen erstellt, um die Modellleistung zu verbessern, z. B. die Berechnung eines „Body-Mass-Index” aus den Spalten für Größe und Gewicht.
  • vs. Datenbeschriftung: Beschriftung ist der Prozess der Definition der Grundwahrheit, z. B. das Zeichnen von Begrenzungsrahmen um Objekte. Die Vorverarbeitung erfolgt nach der Datenerfassung und Beschriftung, aber bevor die Daten in das neuronale Netzwerk eingespeist werden.

Praktisches Beispiel

Im Ultralytics wird die Vorverarbeitung häufig automatisch während der Trainingspipeline durchgeführt. Sie können Bilder jedoch auch manuell mit Bibliotheken wie OpenCV vorverarbeiten. Der folgende Ausschnitt zeigt das Laden eines Bildes, die Größenänderung auf eine Standardeingabegröße für ein Modell wie YOLO26 und die Normalisierung der Pixelwerte.

import cv2
import numpy as np

# Load an image using OpenCV
image = cv2.imread("bus.jpg")

# Resize the image to 640x640, a standard YOLO input size
resized_image = cv2.resize(image, (640, 640))

# Normalize pixel values from 0-255 to 0-1 for model stability
normalized_image = resized_image / 255.0

# Add a batch dimension (H, W, C) -> (1, H, W, C) for inference
input_tensor = np.expand_dims(normalized_image, axis=0)

print(f"Processed shape: {input_tensor.shape}")

Bei Großprojekten kann der Einsatz von Tools wie der Ultralytics diese Arbeitsabläufe optimieren. Die Plattform vereinfacht die Verwaltung von Datensätzen und automatisiert viele Vorverarbeitungs- und Annotationsaufgaben, um den Übergang von Rohdaten zu einem einsatzbereiten Modell zu beschleunigen.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten