Indem Sie auf „Alle Cookies akzeptieren“ klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Website-Navigation zu verbessern, die Website-Nutzung zu analysieren und unsere Marketingbemühungen zu unterstützen. Mehr Infos
Cookie-Einstellungen
Indem Sie auf „Alle Cookies akzeptieren“ klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Website-Navigation zu verbessern, die Website-Nutzung zu analysieren und unsere Marketingbemühungen zu unterstützen. Mehr Infos
Erfahren Sie die fünf wichtigsten praktischen Tipps für den effizienten Einsatz von Ultralytics am Edge und in der Cloud, von der Auswahl des richtigen Workflows und Exportformats bis hin zur Quantisierung.
Im vergangenen Monat hat Ultralytics Ultralytics auf den Markt gebracht und damit einen neuen Standard für Vision AI gesetzt, einen Zweig der künstlichen Intelligenz, der es Maschinen ermöglicht, visuelle Informationen aus Bildern und Videos zu interpretieren und zu verstehen. Anstatt einfach nur Bildmaterial aufzunehmen, unterstützen Computer-Vision-Modelle wieYOLO Ultralytics YOLO Sehaufgaben wie Objekterkennung, Instanzsegmentierung, Posenschätzung und Bildklassifizierung.
YOLO26 wurde für den Einsatz in Bereichen entwickelt, in denen Computer Vision tatsächlich zum Einsatz kommt, nämlich auf Geräten, Kameras, Robotern und Produktionssystemen. Es handelt sich um ein hochmodernes Modell, das eine schnellereCPU-Inferenz (CPU Processing Unit), eine vereinfachte Bereitstellung und eine effiziente End-to-End-Leistung in realen Umgebungen bietet. Die YOLO26-Modelle wurden außerdem so konzipiert, dass Computer-Vision-Lösungen leicht von der Experimentierphase in die Produktion überführt werden können.
Abb. 1: Das YOLO26-Nano-Modell liefert CPU um bis zu 43 % schnellere CPU als YOLO11. (Quelle)
Die Modellbereitstellung umfasst in der Regel verschiedene Überlegungen, wie z. B. die Auswahl der richtigen Hardware, die Wahl eines geeigneten Exportformats, die Optimierung der Leistung und die Validierung der Ergebnisse unter realen Bedingungen. Dank des Ultralytics Python , das das Training, die Inferenz und den Modellexport über mehrere Bereitstellungsziele hinweg optimiert, ist die Navigation durch diese Schritte bei der Bereitstellung von YOLO26 ganz einfach.
Doch auch bei vereinfachten Arbeitsabläufen ist es entscheidend, die richtigen Bereitstellungsentscheidungen zu treffen. In diesem Artikel stellen wir Ihnen fünf praktische Tipps vor, mit denen Sie YOLO26 effizient in Edge- und Cloud-Umgebungen bereitstellen und so eine zuverlässige und skalierbare Vision-AI-Leistung in der Produktion sicherstellen können. Los geht's!
Was ist Modellbereitstellung in der Bildverarbeitung?
Bevor wir uns mit den Bereitstellungsstrategien für YOLO26 befassen, wollen wir einen Schritt zurücktreten und verstehen, was Modellbereitstellung in der Bildverarbeitung bedeutet.
Die Modellbereitstellung ist der Prozess, bei dem ein trainiertes Deep-Learning-Modell aus einer Entwicklungsumgebung in eine reale Anwendung übertragen wird, wo es neue Bilder oder Videostreams verarbeiten und kontinuierlich Vorhersagen generieren kann. Anstatt Experimente mit statischen Datensätzen durchzuführen, wird das Modell Teil eines Live-Systems.
In der Bildverarbeitung bedeutet dies häufig, dass das Modell in Kameras, Edge-KI-Geräte, APIs oder Cloud-Infrastrukturen integriert werden muss. Es muss innerhalb der Hardware-Beschränkungen funktionieren, Latenzanforderungen erfüllen und unter wechselnden realen Bedingungen eine konsistente Leistung aufrechterhalten.
Es ist wichtig, diesen Übergang vom Experimentieren zur Produktion zu verstehen, da Bereitstellungsentscheidungen einen direkten Einfluss darauf haben, wie gut ein Modell außerhalb eines Labors oder einer Versuchsanordnung funktioniert.
Die Bereitstellungs-Workflows von Ultralytics verstehen
Als Nächstes wollen wir uns ansehen, was ein YOLO26-Bereitstellungsworkflow eigentlich beinhaltet. Einfach ausgedrückt handelt es sich dabei um die Abfolge von Schritten, die ein Bild von der Aufnahme über die Analyse bis hin zur Vorhersage begleitet.
In einer typischen Konfiguration nimmt eine Kamera ein Bild oder einen Videoframe auf. Diese Daten werden dann vorverarbeitet, beispielsweise durch Größenanpassung oder korrekte Formatierung, bevor sie zur Inferenz an Ultralytics weitergeleitet werden.
Das Modell analysiert die Eingaben und erzeugt Ausgaben wie Begrenzungsrahmen, Segmentierungsmasken oder Schlüsselpunkte. Diese Ergebnisse können dann verwendet werden, um Aktionen auszulösen, wie z. B. das Senden von Warnmeldungen, das Aktualisieren eines Dashboards oder das Steuern eines Robotersystems.
Wo dieser Workflow ausgeführt wird, hängt von Ihrer Bereitstellungsstrategie ab. Bei einer Edge-Bereitstellung erfolgt die Inferenz beispielsweise direkt auf dem Gerät oder in der Nähe der Kamera, wodurch die Latenz reduziert und der Datenschutz verbessert wird.
Bei einer Cloud-Bereitstellung hingegen werden Bilder oder Videobilder zur Verarbeitung an Remote-Server gesendet, was eine größere Skalierbarkeit und eine zentralisierte Verwaltung ermöglicht. Einige Systeme verwenden einen hybriden Ansatz, bei dem leichte Verarbeitungsaufgaben am Rand und schwerere Workloads in der Cloud ausgeführt werden.
Untersuchung von YOLO26-Modellvarianten
Um fundierte Entscheidungen zur Bereitstellung treffen zu können, ist es auch wichtig zu wissen, dass verschiedene YOLO26-Modellvarianten zur Auswahl stehen.
YOLO sind standardmäßig in verschiedenen Größen erhältlich, sodass Sie ganz einfach eine Version auswählen können, die Ihren Hardware- und Leistungsanforderungen entspricht. YOLO26 ist in fünf Varianten erhältlich: Nano (n), Small (s), Medium (m), Large (l) und Extra Large (x).
Die kleineren Modelle, wie beispielsweise YOLO26n, sind auf Effizienz optimiert und eignen sich hervorragend für Edge-Geräte, IoT-Geräte (Internet of Things), eingebettete Systeme und CPU Systeme, bei denen eine geringe Latenz und ein niedriger Stromverbrauch wichtig sind. Sie bieten eine starke Leistung bei minimalem Ressourcenverbrauch.
Die größeren Modelle, wie YOLO26l und YOLO26x, sind auf höhere Genauigkeit und komplexere Szenen ausgelegt. Diese Varianten erzielen in der Regel die besten Ergebnisse auf Systemen mit Grafikprozessoren (GPUs) oder in Cloud-Umgebungen, in denen mehr Rechenressourcen zur Verfügung stehen.
Die Auswahl der richtigen Modellgröße hängt von Ihren Einsatzzielen ab. Wenn Geschwindigkeit und Effizienz auf begrenzter Hardware für Sie oberste Priorität haben, ist möglicherweise eine kleinere Variante ideal. Wenn Ihre Anwendung maximale Genauigkeit erfordert und Sie über leistungsfähigere Hardware verfügen, ist möglicherweise ein größeres Modell die bessere Wahl.
Tipps für den effizienten Einsatz von YOLO26
Nachdem wir nun ein besseres Verständnis der YOLO26-Modellvarianten und Bereitstellungs-Workflows haben, wollen wir uns einige praktische Tipps für die effiziente Bereitstellung von YOLO26 in Edge- und Cloud-Umgebungen ansehen.
Tipp 1: Berücksichtigen Sie Ihre Optionen für die Bereitstellung des Modells
Eine der ersten Entscheidungen, die Sie bei der Bereitstellung Ultralytics treffen müssen, ist die Frage, wo das Modell ausgeführt werden soll. Ihre Bereitstellungsumgebung wirkt sich direkt auf Leistung, Latenz, Datenschutz und Skalierbarkeit aus.
Beginnen Sie mit einer Bewertung Ihres Arbeitsablaufs. Erfordert Ihre Anwendung eine geringe Latenz, d. h. müssen Vorhersagen fast unmittelbar nach der Aufnahme eines Bildes generiert werden?
Beispielsweise können in der Robotik oder bei Sicherheitssystemen selbst kleine Verzögerungen die Leistung beeinträchtigen. In diesen Fällen ist eine Edge-Bereitstellung oft die beste Option. Die direkte Ausführung der Inferenz auf einem Gerät oder in der Nähe der Kamera reduziert die Zeit für die Datenverarbeitung und vermeidet die Übertragung von Bildern über das Internet, was auch den Datenschutz verbessern kann.
Andererseits bietet die Cloud-Bereitstellung eine größere Skalierbarkeit und Rechenleistung. Cloud-Server können große Bildmengen verarbeiten, mehrere Videostreams verarbeiten und einen höheren Durchsatz unterstützen.
In der Landwirtschaft könnte ein Landwirt beispielsweise Tausende von Blattbildern sammeln und diese stapelweise analysieren, um festzustellen, ob die Pflanzen Anzeichen einer Krankheit aufweisen. In einem solchen Szenario ist eine sofortige Echtzeitleistung möglicherweise nicht erforderlich, sodass die Cloud-Verarbeitung eine praktische und skalierbare Wahl darstellt.
Abb. 2: Ein Beispiel für die Verwendung von YOLO26 zur Analyse von Blattbildern
Das Senden von Daten an Remote-Server führt jedoch zu einer Netzwerklatenz, d. h. einer Verzögerung, die durch die Übertragung von Bildern über das Internet und den Empfang der Vorhersagen verursacht wird. Für Anwendungen, die nicht zeitkritisch sind, kann dieser Kompromiss akzeptabel sein.
Es gibt auch Optionen zwischen reinem Edge und reinem Cloud. Einige Unternehmen nutzen eine lokale Infrastruktur, die sich in der Nähe des Ortes befindet, an dem die Daten generiert werden. Andere bauen hybride Pipelines auf, führen eine leichte Filterung am Edge durch und senden ausgewählte Daten zur tieferen Analyse an die Cloud.
Die Wahl der richtigen Bereitstellungsoption hängt von den Anforderungen Ihrer Anwendung ab. Durch eine klare Definition Ihrer Anforderungen hinsichtlich Geschwindigkeit, Datenschutz und Skalierbarkeit können Sie eine Strategie auswählen, die eine zuverlässige Leistung von YOLO26 unter realen Bedingungen gewährleistet.
Tipp 2: Wählen Sie das Exportformat, das zu Ihrer Hardware passt.
Nachdem Sie entschieden haben, wo Ihr Modell ausgeführt werden soll, müssen Sie im nächsten Schritt das richtige Exportformat auswählen. Beim Exportieren eines Modells wird es aus dem während des Trainings verwendeten Format in ein für die Bereitstellung optimiertes Format konvertiert.
YOLO26-Modelle werden nativ in PyTorch erstellt und trainiert, aber Produktionsumgebungen basieren oft auf speziellen Laufzeitumgebungen, die besser für bestimmte Hardware geeignet sind. Diese Laufzeitumgebungen wurden entwickelt, um die Inferenzgeschwindigkeit zu verbessern, den Speicherverbrauch zu reduzieren und die Kompatibilität mit dem Zielgerät sicherzustellen.
Durch die Konvertierung von YOLO26 in das geeignete Format kann es außerhalb der Trainingsumgebung effizient ausgeführt werden. DasPython Ultralytics macht diesen Vorgang ganz einfach. Es unterstützt eine Vielzahl von Integrationen für die Erstellung und Bereitstellung von Computer-Vision-Projekten.
Wenn Sie diese Integrationen genauer kennenlernen möchten, können Sie die offizielle Ultralytics lesen. Sie enthält Schritt-für-Schritt-Anleitungen, hardwarespezifische Hinweise und praktische Beispiele, die Ihnen helfen, sicher von der Entwicklung zur Produktion überzugehen.
Abb. 3: Ultralytics verschiedene Integrationen (Quelle)
Insbesondere unterstützt das Ultralytics Python den Export von Ultralytics in mehrere Formate, die auf verschiedene Hardwareplattformen zugeschnitten sind. So ermöglicht beispielsweise das ONNX plattformübergreifende Kompatibilität, das TensorRT ist für NVIDIA und NVIDIA optimiert und das OpenVINO wurde für Intel entwickelt.
Einige Geräte unterstützen mehr als ein Exportformat, aber die Leistung kann je nach ausgewähltem Format variieren. Anstatt ein Format standardmäßig auszuwählen, fragen Sie sich: Welche Option ist für Ihr Gerät am effizientesten?
Ein Format kann eine schnellere Inferenz liefern, während ein anderes eine bessere Speichereffizienz oder eine einfachere Integration in Ihre bestehende Pipeline bietet. Deshalb ist es wichtig, das Exportformat an Ihre spezifische Hardware und Bereitstellungsumgebung anzupassen.
Wenn Sie sich die Zeit nehmen, verschiedene Exportoptionen auf Ihrem Zielgerät zu testen, kann dies einen spürbaren Unterschied in der tatsächlichen Leistung bewirken. Ein gut abgestimmtes Exportformat trägt dazu bei, dass YOLO26 effizient, zuverlässig und mit der von Ihrer Anwendung geforderten Geschwindigkeit läuft.
Tipp 3: Fragen Sie, ob Ihr Modell quantisiert werden muss.
Nachdem Sie ein Exportformat ausgewählt haben, sollten Sie auch entscheiden, ob Ihr Modell quantisiert werden soll.
Die Modellquantisierung reduziert die numerische Genauigkeit der Gewichte und Berechnungen eines Modells, indem sie diese in der Regel von 32-Bit-Gleitkommazahlen in Formate mit geringerer Genauigkeit wie 16-Bit oder 8-Bit konvertiert. Dies trägt dazu bei, die Modellgröße zu reduzieren, den Speicherverbrauch zu senken und die Inferenzgeschwindigkeit zu verbessern, insbesondere auf Edge-Geräten oder Systemen, die mit einer CPU betrieben werden.
Je nach Hardware, Exportformat und Laufzeitabhängigkeiten kann die Quantisierung die Leistung deutlich verbessern. Einige Laufzeiten sind für Modelle mit geringerer Genauigkeit optimiert, sodass sie schneller und effizienter ausgeführt werden können.
Allerdings kann die Quantisierung die Genauigkeit leicht beeinträchtigen, wenn sie nicht sorgfältig angewendet wird. Achten Sie bei der Quantisierung nach dem Training darauf, dass Sie die Validierungsbilder übergeben. Diese Bilder werden während der Kalibrierung verwendet, um das Modell an eine geringere Genauigkeit anzupassen und stabile Vorhersagen zu gewährleisten.
Tipp 4: Berücksichtigen Sie Datenabweichungen
Selbst das besttrainierte Modell kann mit der Zeit aufgrund von Datenabweichungen an Leistung verlieren. Datenabweichungen treten auf, wenn die Daten, die Ihr Modell in der Produktion sieht, sich von den Daten unterscheiden, mit denen es trainiert wurde.
Mit anderen Worten: Die reale Welt verändert sich, Ihr Modell jedoch nicht. Infolgedessen kann die Genauigkeit langsam abnehmen.
Beispielsweise könnten Sie Ihr YOLO26-Modell anhand von Bildern trainieren, die tagsüber aufgenommen wurden. Wenn dasselbe Modell später nachts unter anderen Lichtverhältnissen verwendet wird, kann die Leistung nachlassen. Das gleiche Problem kann bei Änderungen der Kamerawinkel, Wetterbedingungen, Hintergründe oder des Aussehens von Objekten auftreten.
Datenabweichungen sind in realen Vision-KI-Systemen häufig anzutreffen. Umgebungen sind selten statisch, und schon kleine Veränderungen können die Erkennungsgenauigkeit beeinträchtigen. Um die Auswirkungen von Abweichungen zu verringern, können Sie sicherstellen, dass Ihr Trainingsdatensatz die realen Bedingungen so genau wie möglich widerspiegelt.
Fügen Sie Bilder hinzu, die zu verschiedenen Tageszeiten, unter unterschiedlichen Lichtverhältnissen und in verschiedenen Umgebungen aufgenommen wurden. Nach der Bereitstellung können Sie die Leistung weiterhin überwachen und das Modell bei Bedarf aktualisieren oder optimieren.
Tipp 5: Benchmark unter realen Bedingungen
Bevor Sie Ihr Modell vollständig einsetzen, können Sie es unter realen Bedingungen benchmarken.
Abb. 4: Ein Blick auf das Benchmarking von YOLO26 im Vergleich zu anderen Modellen (Quelle)
Es ist üblich, die Leistung in kontrollierten Umgebungen anhand von Beispielbildern oder kleinen Datensätzen zu testen. In der Praxis verhalten sich Systeme jedoch oft anders. Hardwarebeschränkungen, Netzwerkverzögerungen, mehrere Videostreams und kontinuierliche Eingaben können die Leistung beeinträchtigen.
Benchmarking bezeichnet die Messung der Leistung Ihres Modells auf dem tatsächlichen Gerät und in der tatsächlichen Konfiguration, in der es ausgeführt wird. Dazu gehören die Überprüfung der Inferenzgeschwindigkeit, der Gesamtlatenz, der Speichernutzung und der Systemstabilität. Es ist wichtig, nicht nur das Modell selbst zu testen, sondern die gesamte Pipeline, einschließlich der Vorverarbeitung und aller Nachbearbeitungsschritte.
Ein Modell kann bei einem einzelnen Bildtest gute Ergebnisse erzielen, aber Schwierigkeiten haben, wenn es kontinuierlich Live-Videos verarbeitet. Ebenso spiegelt die Leistung auf einem leistungsstarken Entwicklungsrechner möglicherweise nicht wider, wie sich das Modell auf einem Edge-Gerät mit geringer Leistung verhält.
Durch Benchmarking unter realistischen Bedingungen können Sie Engpässe frühzeitig erkennen und vor der Inbetriebnahme Anpassungen vornehmen. Tests in derselben Umgebung, in der YOLO26 betrieben wird, tragen dazu bei, eine zuverlässige, stabile und konsistente Leistung in der Produktion sicherzustellen.
Weitere wichtige Überlegungen zur Modellbereitstellung
Hier sind einige zusätzliche Faktoren, die Sie bei der Bereitstellung von YOLO26 beachten sollten:
Überwachung und Protokollierung: Richten Sie Überwachungstools ein, um track wie Latenz, Genauigkeit und Systemzustand nach der Bereitstellung track .
Sicherheit und Datenschutz: Implementieren Sie Sicherheitsvorkehrungen zum Schutz sensibler visueller Daten, insbesondere bei der Nutzung von Cloud- oder Remote-Infrastrukturen.
Optimierung von Pipeline-Engpässen: Bewerten Sie die gesamte Pipeline, einschließlich Modulen wie Vorverarbeitung, Inferenz, Nachbearbeitung und Datenübertragung, da Verzögerungen auch außerhalb des Modells selbst auftreten können.
Skalierbarkeitsplanung: Planen Sie Ihr Wachstum im Voraus, indem Sie sicherstellen, dass Ihr System erhöhten Datenverkehr, zusätzliche Kameras oder erweiterte Arbeitslasten bewältigen kann.
Wesentliche Erkenntnisse
Die effiziente Bereitstellung von YOLO26 beginnt damit, dass Sie verstehen, wo Ihr Modell ausgeführt wird und was Ihre Anwendung wirklich benötigt. Durch die Wahl des richtigen Bereitstellungsansatzes, die Anpassung des Exportformats an Ihre Hardware und das Testen der Leistung unter realen Bedingungen können Sie zuverlässige und reaktionsschnelle Vision-AI-Systeme aufbauen. Mit der richtigen Konfiguration erleichtert Ultralytics die Bereitstellung schneller, produktionsreifer Computer Vision am Edge und in der Cloud.