Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Model Deployment

Erfahren Sie, wie Sie Machine-Learning-Modelle in Cloud- oder Edge-Umgebungen bereitstellen können. Entdecken Sie, wie die Ultralytics den Export und die Produktion für YOLO26 optimiert.

Die Modellbereitstellung ist die entscheidende Phase, in der ein trainiertes Machine-Learning-Modell in eine Produktionsumgebung integriert wird , um auf der Grundlage neuer Daten praktische Entscheidungen zu treffen oder Vorhersagen zu treffen. Es stellt den Übergang von einer Forschungs- oder Versuchsumgebung – die oft in isolierten Notebooks durchgeführt wird – zu einer Live-Anwendung dar, in der das Modell mit realen Benutzern und Systemen interagiert. Dieser Prozess verwandelt eine statische Datei mit Gewichten und Architektur in einen aktiven KI-Agenten, der in der Lage ist, einen Mehrwert zu schaffen, z. B. durch die Identifizierung von Objekten in einem Videofeed oder die Empfehlung von Produkten auf einer Website.

Eine effektive Bereitstellung erfordert die Bewältigung von Herausforderungen, die sich von denen des Modelltrainings unterscheiden, darunter Latenz, Skalierbarkeit und Hardwarekompatibilität . Unternehmen nutzen häufig die Ultralytics , um diesen Lebenszyklus zu optimieren und sicherzustellen, dass in der Cloud trainierte Modelle nahtlos in verschiedene Umgebungen geliefert werden können, von leistungsstarken Servern bis hin zu Edge-Geräten mit begrenzten Ressourcen.

Die Bereitstellungslandschaft

Bereitstellungsstrategien lassen sich im Allgemeinen in zwei Kategorien einteilen: Cloud-Bereitstellung und Edge-Bereitstellung. Die Wahl hängt stark von den spezifischen Anforderungen an Geschwindigkeit, Datenschutz und Konnektivität ab.

  • Cloud-Bereitstellung: Das Modell befindet sich auf zentralisierten Servern, die häufig von Diensten wie AWS SageMaker oder Google AI verwaltet werden. Anwendungen senden Daten über das Internet an das Modell über eine REST API, die die Anfrage verarbeitet und das Ergebnis zurückgibt. Diese Methode bietet praktisch unbegrenzte Rechenleistung und eignet sich daher ideal für große, komplexe Modelle, ist jedoch auf eine stabile Internetverbindung angewiesen.
  • Edge-Bereitstellung: Das Modell wird lokal auf dem Gerät ausgeführt, auf dem die Daten generiert werden, z. B. auf einem Smartphone, einer Drohne oder einer Fabrikkamera. Dieser Ansatz, der als Edge-Computing bekannt ist, minimiert die Latenz und verbessert den Datenschutz, da die Informationen das Gerät nicht verlassen. Tools wie TensorRT werden häufig verwendet, um Modelle für diese Umgebungen zu optimieren.

Vorbereitung von Modellen für die Produktion

Bevor ein Modell bereitgestellt werden kann, wird es in der Regel optimiert, um sicherzustellen, dass es auf der Zielhardware effizient läuft . Dieser Prozess umfasst den Modellexport, bei dem das Trainingsformat (wie PyTorch) in ein bereitstellungsfreundliches Format wie ONNX (Open Neural Network Exchange) oder OpenVINO.

Optimierungstechniken wie Quantisierung reduzieren die Größe und den Speicherbedarf des Modells, ohne die Genauigkeit wesentlich zu beeinträchtigen. Um die Konsistenz über verschiedene Computerumgebungen hinweg zu gewährleisten, verwenden Entwickler häufig Containerisierungstools wie Docker, die das Modell mit allen erforderlichen Softwareabhängigkeiten bündeln.

Nachfolgend finden Sie ein Beispiel dafür, wie Sie ein YOLO26-Modell in das ONNX exportieren können, ein üblicher Schritt bei der Vorbereitung für die Bereitstellung:

from ultralytics import YOLO

# Load the YOLO26 nano model
model = YOLO("yolo26n.pt")

# Export the model to ONNX format for broad compatibility
# This creates a file suitable for various inference engines
path = model.export(format="onnx")

print(f"Model successfully exported to: {path}")

Anwendungsfälle in der Praxis

Modellbereitstellung treibt weit verbreitete Computervisionsysteme in verschiedenen Branchen an.

  • Qualitätskontrolle in der Fertigung: In der intelligenten Fertigung überwachen eingesetzte Modelle Förderbänder in Echtzeit. Ein Kamerasystem, auf dem ein für NVIDIA optimiertes Modell läuft, kann detect in Produkten sofort detect und einen Roboterarm auslösen, der fehlerhafte Artikel entfernt. Dies erfordert eine extrem geringe Latenz, die nur durch den Einsatz von Edge-KI erreicht werden kann.
  • Einzelhandelsanalyse: Geschäfte verwenden eingesetzte Modelle, um Kundenfrequenz und Kundenverhalten zu analysieren. Durch die Integration von Objektverfolgungsmodellen in die Feeds von Überwachungskameras können Einzelhändler Heatmaps beliebter Gänge erstellen. Diese Erkenntnisse helfen bei der Optimierung der Ladenplanung und der Verbesserung der Bestandsverwaltung, wobei häufig cloudbasierte Implementierungen zum Einsatz kommen, um Daten von mehreren Standorten zu aggregieren.

Bereitstellung vs. Inferenz vs. Training

Es ist wichtig, die Modellbereitstellung von verwandten Begriffen im Lebenszyklus des maschinellen Lernens zu unterscheiden:

  • Das Modelltraining ist die Ausbildungsphase, in der der Algorithmus Muster aus einem Datensatz lernt.
  • Die Modellbereitstellung ist die Integrationsphase, in der das trainierte Modell in eine Produktionsinfrastruktur (Server, Apps oder Geräte) installiert wird.
  • Die Inferenz ist die operative Phase – der eigentliche Vorgang, bei dem das bereitgestellte Modell Live-Daten verarbeitet, um eine Vorhersage zu erstellen. Beispielsweise führt die Inferenz-Engine die Berechnungen aus, die durch das bereitgestellte Modell definiert sind.

Überwachung und Wartung

Die Bereitstellung ist nicht das Ende des Weges. Nach der Inbetriebnahme müssen Modelle kontinuierlich überwacht werden, um Probleme wie Datenabweichungen detect , bei denen die realen Daten beginnen, von den Trainingsdaten abzuweichen. Tools wie Prometheus oder Grafana werden häufig integriert, um track und sicherzustellen, dass das System auch langfristig zuverlässig bleibt. Wenn die Leistung nachlässt, muss das Modell möglicherweise neu trainiert und erneut bereitgestellt werden, wodurch der Zyklus von MLOps abgeschlossen wird.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten