Entdecken Sie, wie Ensemble Learning die Genauigkeit verbessert und Überanpassung reduziert. Lernen Sie, mehrere Modelle wie Ultralytics zu kombinieren, um überragende Ergebnisse im Bereich Computer Vision zu erzielen.
Ensemble Learning ist eine robuste Strategie im maschinellen Lernen (ML), bei der mehrere unabhängige Modelle, oft als „schwache Lerner” bezeichnet, kombiniert werden, um eine einzige Vorhersage zu erstellen. Die grundlegende Prämisse ist, dass eine Gruppe von Modellen oft eine höhere Genauigkeit und bessere Generalisierung erzielen kann als ein einzelnes Modell allein. Durch die Aggregation der Vorhersagen verschiedener Algorithmen reduzieren Ensemble-Methoden effektiv das Risiko einer Überanpassung an die Trainingsdaten, glätten zufällige Fehler und verbessern die Gesamtstabilität des Systems. Dieser Ansatz ist vergleichbar mit der Konsultation eines Expertengremiums, anstatt sich bei einer wichtigen Entscheidung auf die Meinung einer einzelnen Person zu verlassen.
Die Wirksamkeit von Ensemble-Methoden liegt in ihrer Fähigkeit, den Bias-Varianz-Kompromiss zu manipulieren. Einzelne Modelle können unter hoher Varianz (Empfindlichkeit gegenüber Rauschen) oder hohem Bias (übermäßige Vereinfachung) leiden. Das Ensemble mildert diese Probleme durch spezifische Techniken:
Im Bereich der Computervision (CV) werden Ensembles häufig eingesetzt, um die Leistung in Wettbewerben und kritischen Sicherheitsanwendungen zu maximieren. Bei der Objekterkennung bedeutet dies oft, dass mehrere Modelle – wie beispielsweise verschiedene Versionen von YOLO26– auf demselben Bild ausgeführt werden . Die resultierenden Begrenzungsrahmen werden dann mithilfe von Techniken wie Non-Maximum Suppression (NMS) oder Weighted Box Fusion (WBF) zusammengeführt, um die wahrscheinlichsten Objektpositionen abzuleiten.
Ensemble-Methoden sind in Branchen, in denen die Zuverlässigkeit von Vorhersagen von größter Bedeutung ist, allgegenwärtig.
Sie können ein grundlegendes Inferenzensemble simulieren, indem Sie mehrere trainierte Modelle laden und Vorhersagen für dieselbe Eingabe generieren. Mit der Ultralytics können Sie diese Varianten ganz einfach trainieren. Das folgende Beispiel zeigt das Laden von zwei verschiedenen Ultralytics YOLO -Modelle (YOLO26n und YOLO26s) geladen werden, um Erkennungen auf einem Bild zu überprüfen.
from ultralytics import YOLO
# Load two distinct YOLO26 model variants
# 'n' (nano) is faster, 's' (small) is more accurate
model_nano = YOLO("yolo26n.pt")
model_small = YOLO("yolo26s.pt")
# Define the image source
source = "https://ultralytics.com/images/bus.jpg"
# Run inference with both models
results_n = model_nano(source)
results_s = model_small(source)
# Compare the number of objects detected by each model
print(f"Nano Model Found: {len(results_n[0].boxes)} objects")
print(f"Small Model Found: {len(results_s[0].boxes)} objects")
Es ist wichtig, das Ensemble -Lernen von der Datenvergrößerung zu unterscheiden.
Während die Datenvergrößerung einem einzelnen Modell hilft, besser zu lernen, hilft das Ensemble-Lernen mehreren Modellen, ihre Ergebnisse gegenseitig zu überprüfen . Beide Strategien werden oft zusammen verwendet, um bei Aufgaben wie der Instanzsegmentierung und der Posenabschätzung