Erfahren Sie, wie Sie Machine-Learning-Modelle in Cloud- oder Edge-Umgebungen bereitstellen können. Entdecken Sie, wie die Ultralytics den Export und die Produktion für YOLO26 optimiert.
Die Modellbereitstellung ist die entscheidende Phase, in der ein trainiertes Machine-Learning-Modell in eine Produktionsumgebung integriert wird , um auf der Grundlage neuer Daten praktische Entscheidungen zu treffen oder Vorhersagen zu treffen. Es stellt den Übergang von einer Forschungs- oder Versuchsumgebung – die oft in isolierten Notebooks durchgeführt wird – zu einer Live-Anwendung dar, in der das Modell mit realen Benutzern und Systemen interagiert. Dieser Prozess verwandelt eine statische Datei mit Gewichten und Architektur in einen aktiven KI-Agenten, der in der Lage ist, einen Mehrwert zu schaffen, z. B. durch die Identifizierung von Objekten in einem Videofeed oder die Empfehlung von Produkten auf einer Website.
Eine effektive Bereitstellung erfordert die Bewältigung von Herausforderungen, die sich von denen des Modelltrainings unterscheiden, darunter Latenz, Skalierbarkeit und Hardwarekompatibilität . Unternehmen nutzen häufig die Ultralytics , um diesen Lebenszyklus zu optimieren und sicherzustellen, dass in der Cloud trainierte Modelle nahtlos in verschiedene Umgebungen geliefert werden können, von leistungsstarken Servern bis hin zu Edge-Geräten mit begrenzten Ressourcen.
Bereitstellungsstrategien lassen sich im Allgemeinen in zwei Kategorien einteilen: Cloud-Bereitstellung und Edge-Bereitstellung. Die Wahl hängt stark von den spezifischen Anforderungen an Geschwindigkeit, Datenschutz und Konnektivität ab.
Bevor ein Modell bereitgestellt werden kann, wird es in der Regel optimiert, um sicherzustellen, dass es auf der Zielhardware effizient läuft . Dieser Prozess umfasst den Modellexport, bei dem das Trainingsformat (wie PyTorch) in ein bereitstellungsfreundliches Format wie ONNX (Open Neural Network Exchange) oder OpenVINO.
Optimierungstechniken wie Quantisierung reduzieren die Größe und den Speicherbedarf des Modells, ohne die Genauigkeit wesentlich zu beeinträchtigen. Um die Konsistenz über verschiedene Computerumgebungen hinweg zu gewährleisten, verwenden Entwickler häufig Containerisierungstools wie Docker, die das Modell mit allen erforderlichen Softwareabhängigkeiten bündeln.
Nachfolgend finden Sie ein Beispiel dafür, wie Sie ein YOLO26-Modell in das ONNX exportieren können, ein üblicher Schritt bei der Vorbereitung für die Bereitstellung:
from ultralytics import YOLO
# Load the YOLO26 nano model
model = YOLO("yolo26n.pt")
# Export the model to ONNX format for broad compatibility
# This creates a file suitable for various inference engines
path = model.export(format="onnx")
print(f"Model successfully exported to: {path}")
Modellbereitstellung treibt weit verbreitete Computervisionsysteme in verschiedenen Branchen an.
Es ist wichtig, die Modellbereitstellung von verwandten Begriffen im Lebenszyklus des maschinellen Lernens zu unterscheiden:
Die Bereitstellung ist nicht das Ende des Weges. Nach der Inbetriebnahme müssen Modelle kontinuierlich überwacht werden, um Probleme wie Datenabweichungen detect , bei denen die realen Daten beginnen, von den Trainingsdaten abzuweichen. Tools wie Prometheus oder Grafana werden häufig integriert, um track und sicherzustellen, dass das System auch langfristig zuverlässig bleibt. Wenn die Leistung nachlässt, muss das Modell möglicherweise neu trainiert und erneut bereitgestellt werden, wodurch der Zyklus von MLOps abgeschlossen wird.