Indem Sie auf „Alle Cookies akzeptieren“ klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Website-Navigation zu verbessern, die Website-Nutzung zu analysieren und unsere Marketingbemühungen zu unterstützen. Mehr Infos
Cookie-Einstellungen
Indem Sie auf „Alle Cookies akzeptieren“ klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Website-Navigation zu verbessern, die Website-Nutzung zu analysieren und unsere Marketingbemühungen zu unterstützen. Mehr Infos
Erfahren Sie, wie Sie Ultralytics YOLO11 einem Benchmarking unterziehen, die Leistung verschiedener Geräte vergleichen und verschiedene Exportformate zur Optimierung von Geschwindigkeit, Genauigkeit und Effizienz untersuchen können.
Angesichts der wachsenden Anzahl von KI-Modellen, die heute verfügbar sind, ist die Auswahl des am besten geeigneten Modells für Ihre spezifische KI-Anwendung entscheidend, um genaue und zuverlässige Ergebnisse zu erzielen. Jedes Modell variiert in Geschwindigkeit, Genauigkeit und Gesamtleistung. Wie können wir also feststellen, welches Modell für eine bestimmte Aufgabe am besten geeignet ist? Dies ist besonders wichtig für Echtzeitsysteme wie autonome Fahrzeuge, Sicherheitslösungen und Robotik, wo schnelle und zuverlässige Entscheidungsfindung von entscheidender Bedeutung ist.
Benchmarking hilft, diese Frage zu beantworten, indem es ein Modell unter verschiedenen Bedingungen bewertet. Es liefert Einblicke, wie gut das Modell über verschiedene Hardware-Setups und Konfigurationen hinweg funktioniert, was eine fundiertere Entscheidungsfindung ermöglicht.
Zum Beispiel, Ultralytics YOLO11 ist ein Computer-Vision-Modell, das verschiedene Aufgaben der visuellen Datenanalyse wie Objekterkennung und Instanzsegmentierung unterstützt. Um seine Fähigkeiten vollständig zu verstehen, können Sie seine Leistung in verschiedenen Konfigurationen testen, um zu sehen, wie es mit realen Szenarien umgeht.
In diesem Artikel erfahren Sie, wie Sie Ultralytics YOLO wie YOLO11 einem Benchmarking unterziehen, ihre Leistung auf verschiedenen Geräten vergleichen und sehen, wie sich verschiedene Exportformate auf ihre Geschwindigkeit und Effizienz auswirken. Legen wir los!
Was ist Modell-Benchmarking?
Wenn es darum geht, ein Vision-KI-Modell in einer realen Anwendung einzusetzen, wie können Sie feststellen, ob es schnell, genau und zuverlässig genug ist? Das Benchmarking des Modells kann Aufschluss darüber geben. Modell-Benchmarking ist der Prozess des Testens und Vergleichens verschiedener KI-Modelle, um herauszufinden, welches am besten abschneidet.
Es beinhaltet das Festlegen einer Vergleichsbasis, die Auswahl der richtigen Leistungskennzahlen (wie Genauigkeit oder Geschwindigkeit) und das Testen aller Modelle unter den gleichen Bedingungen. Die Ergebnisse helfen, die Stärken und Schwächen jedes Modells zu identifizieren, was die Entscheidung erleichtert, welches Modell am besten für Ihre spezifische KI-Lösung geeignet ist. Insbesondere wird häufig ein Benchmark-Datensatz verwendet, um faire Vergleiche zu ermöglichen und zu beurteilen, wie gut ein Modell in verschiedenen realen Szenarien funktioniert.
Abb. 1. Warum Computer Vision Modelle benchmarken? Bild vom Autor.
Ein deutliches Beispiel dafür, warum Benchmarking so wichtig ist, sind Echtzeitanwendungen wie Überwachung oder Robotik, bei denen selbst geringfügige Verzögerungen die Entscheidungsfindung beeinträchtigen können. Benchmarking hilft zu beurteilen, ob ein Modell Bilder schnell verarbeiten und gleichzeitig zuverlässige Vorhersagen liefern kann.
Es spielt auch eine Schlüsselrolle bei der Identifizierung von Performance-Engpässen. Wenn ein Modell langsam läuft oder übermäßig viele Ressourcen verbraucht, kann das Benchmarking aufzeigen, ob das Problem auf Hardware-Beschränkungen, Modellkonfigurationen oder Exportformate zurückzuführen ist. Diese Erkenntnisse sind entscheidend für die Auswahl des effektivsten Setups.
Modell-Benchmarking im Vergleich zu Modellevaluierung und -tests
Modell-Benchmarking, -Evaluierung und -Tests sind gängige KI-Begriffe, die zusammen verwendet werden. Obwohl sie ähnlich sind, sind sie nicht identisch und haben unterschiedliche Funktionen. Beim Modelltest wird überprüft, wie gut ein einzelnes Modell funktioniert, indem es auf einem Testdatensatz ausgeführt und Faktoren wie Genauigkeit und Geschwindigkeit gemessen werden. Die Modellevaluierung geht noch einen Schritt weiter, indem sie die Ergebnisse analysiert, um die Stärken und Schwächen des Modells zu verstehen und zu beurteilen, wie gut es in realen Situationen funktioniert. Beide konzentrieren sich jeweils auf nur ein Modell.
Beim Modell-Benchmarking werden jedoch mehrere Modelle anhand derselben Tests und Datensätze Seite an Seite verglichen. Es hilft herauszufinden, welches Modell für eine bestimmte Aufgabe am besten geeignet ist, indem es Unterschiede in Genauigkeit, Geschwindigkeit und Effizienz zwischen ihnen hervorhebt. Während sich Tests und Evaluierung auf ein einzelnes Modell konzentrieren, hilft Benchmarking bei der Auswahl des richtigen (oder des besten) Modells, indem es verschiedene Optionen fair vergleicht.
Abb. 2. Wie sich Modell-Benchmarking von Evaluierung und Tests unterscheidet. Bild vom Autor.
Ein Überblick über Ultralytics YOLO11
Ultralytics YOLO11 ist ein zuverlässiges Bildverarbeitungsmodell, das für die präzise Ausführung verschiedener Bildverarbeitungsaufgaben konzipiert ist. Es verbessert frühere Versionen des YOLO und ist vollgepackt mit Funktionen, die bei der Lösung realer Probleme helfen können. So kann es beispielsweise zur detect Objekten, zur classify Bildern, zur segment von Regionen, zur track Bewegungen und vielem mehr verwendet werden. Außerdem kann es in vielen Branchen eingesetzt werden, von der Sicherheit bis zur Automatisierung und Analyse.
Abb. 3. Ein Beispiel für die Verwendung von YOLO11 zur segment von Personen in einem Bild.
Einer der Hauptvorteile von Ultralytics YOLO11 ist seine Benutzerfreundlichkeit. Mit nur wenigen Codezeilen kann es jeder in seine KI-Projekte integrieren, ohne sich mit komplizierten Setups oder fortgeschrittenem technischem Know-how auseinandersetzen zu müssen.
Es funktioniert auch reibungslos auf verschiedenen Hardware-Komponenten und läuft effizient auf CPUs (Central Processing Units), GPUs (Graphics Processing Units) und anderen spezialisierten KI-Beschleunigern. Ob auf Edge-Geräten oder Cloud-Servern eingesetzt, es liefert eine starke Leistung.
YOLO11 ist in verschiedenen Modellgrößen erhältlich, die jeweils für unterschiedliche Aufgaben optimiert sind. Mit Hilfe von Benchmarking lässt sich feststellen, welche Version am besten zu Ihren spezifischen Anforderungen passt. Eine wichtige Erkenntnis aus dem Benchmarking ist zum Beispiel, dass kleinere Modelle, wie Nano oder Small, tendenziell schneller laufen, aber möglicherweise Abstriche bei der Genauigkeit machen.
Wie man YOLO wie YOLO11 vergleicht
Nachdem wir nun verstanden haben, was Benchmarking ist und wie wichtig es ist. Gehen wir nun durch, wie Sie YOLO wie YOLO11 benchmarken und ihre Effizienz bewerten können, um wertvolle Erkenntnisse zu gewinnen.
Um loszulegen, können Sie das Python installieren, indem Sie den folgenden Befehl in Ihrem Terminal oder Ihrer Eingabeaufforderung ausführen: "pip install ultralytics". Wenn Sie während der Installation auf Probleme stoßen, finden Sie in unserem Leitfaden für häufige Probleme Tipps zur Fehlerbehebung.
Sobald das Paket installiert ist, können Sie YOLO11 mit nur ein paar Zeilen Python testen:
from ultralytics.utils.benchmarks import benchmark
# Benchmark on GPUbenchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
Wenn Sie den oben gezeigten Code ausführen, berechnet er, wie schnell das Modell Bilder verarbeitet, wie viele Frames es in einer Sekunde verarbeiten kann und wie genau es Objekte erkennt.
Die Erwähnung von "coco8yaml" im Code bezieht sich auf eine Dataset-Konfigurationsdatei, die auf dem COCO8 (Common Objects in Context) basiert - eine kleine, beispielhafte Version des vollständigen COCO , die häufig für Tests und Experimente verwendet wird.
Wenn Sie YOLO11 für eine bestimmte Anwendung testen, wie z.B. Verkehrsüberwachung oder medizinische Bildgebung, wird die Verwendung eines relevanten Datensatzes (z.B. eines Verkehrsdatensatzes oder eines medizinischen Datensatzes) genauere Erkenntnisse liefern. Das Benchmarking mit COCO liefert eine allgemeine Vorstellung von der Leistung, aber die besten Ergebnisse erzielen Sie, wenn Sie einen Datensatz wählen, der Ihrem tatsächlichen Anwendungsfall entspricht.
Verständnis der YOLO11
Nach dem YOLO11 besteht der nächste Schritt darin, die Ergebnisse zu interpretieren. Nachdem Sie den Benchmark durchgeführt haben, sehen Sie verschiedene Zahlen in den Ergebnissen. Diese Kennzahlen helfen bei der Bewertung, wie gut YOLO11 in Bezug auf Genauigkeit und Geschwindigkeit abschneidet.
Hier sind einige bemerkenswerte YOLO11 , auf die Sie achten sollten:
mAP50: Er misst die Genauigkeit der Objekterkennung. Ein höherer Wert bedeutet, dass das Modell Objekte besser erkennen kann.
accuracy_top5: Es wird häufig für Klassifizierungsaufgaben verwendet. Es zeigt, wie oft die richtige Bezeichnung in den Top-Fünf-Vorhersagen erscheint.
Inferenzzeit: Die Zeit, die für die Verarbeitung eines einzelnen Bildes benötigt wird, gemessen in Millisekunden. Niedrigere Werte bedeuten schnellere Verarbeitung.
Abb. 4. Ein Diagramm, das die Benchmark-Leistung von YOLO11zeigt.
Andere Faktoren, die beim Benchmarking von YOLO11 zu berücksichtigen sind
Ein Blick auf die Benchmark-Ergebnisse allein erzählt nur einen Teil der Geschichte. Um ein besseres Verständnis der Leistung zu erhalten, ist es hilfreich, verschiedene Einstellungen und Hardwareoptionen zu vergleichen. Hier sind ein paar wichtige Dinge, auf die Sie achten sollten:
GPU vs. CPU: GPUs können Bilder viel schneller verarbeiten als CPUs. Durch Benchmarking können Sie feststellen, ob eine CPU für Ihre Bedürfnisse schnell genug ist oder ob Sie von einem GPU profitieren.
Präzisionseinstellungen (FP32, FP16, INT8): Diese steuern, wie das Modell mit Zahlen umgeht. Eine geringere Präzision (wie FP16 oder INT8) führt dazu, dass das Modell schneller läuft und weniger Speicher benötigt, aber die Genauigkeit kann leicht reduziert werden.
Formate exportieren: Wenn Sie das Modell in ein Format wie TensorRT konvertieren, kann es auf bestimmter Hardware viel schneller laufen. Dies ist nützlich, wenn Sie die Geschwindigkeit auf bestimmten Geräten optimieren wollen.
Wie man YOLO11 auf unterschiedlicher Hardware testet
Mit demPython können Sie YOLO11 in verschiedene Formate konvertieren, die auf bestimmter Hardware effizienter laufen und sowohl die Geschwindigkeit als auch die Speichernutzung verbessern. Jedes Exportformat ist für verschiedene Geräte optimiert.
Einerseits kann das ONNX die Leistung in verschiedenen Umgebungen beschleunigen. Andererseits verbessert OpenVINO die Effizienz auf Intel , und Formate wie CoreML oder TF SavedModel sind ideal für Apple-Geräte und mobile Anwendungen.
Schauen wir uns an, wie man YOLO11 in einem bestimmten Format benchmarken kann. Der folgende Code testet YOLO11 im ONNX , das für die Ausführung von KI-Modellen sowohl auf CPUs als auch auf GPUs weit verbreitet ist.
from ultralytics.utils.benchmarks import benchmark
# Benchmark a specific export format (e.g., ONNX) benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, format="onnx")
Abgesehen von den Benchmarking-Ergebnissen hängt die Wahl des richtigen Formats von den Spezifikationen Ihres Systems und den Einsatzanforderungen ab. Zum Beispiel brauchen selbstfahrende Autos eine schnelle Objekterkennung. Wenn Sie planen, NVIDIA zur Beschleunigung der Leistung zu verwenden, ist das TensorRT die ideale Wahl für die Ausführung von YOLO11 auf einemGPU.
Abb. 5. Einsatz von YOLO11 zur Objekterkennung in selbstfahrenden Autos.
Wesentliche Erkenntnisse
DasPython erleichtert das Benchmarking von YOLO11 , indem es einfache Befehle bereitstellt, die Leistungstests für Sie durchführen können. Mit nur wenigen Schritten können Sie sehen, wie sich verschiedene Konfigurationen auf die Geschwindigkeit und Genauigkeit von Modellen auswirken, so dass Sie fundierte Entscheidungen treffen können, ohne tiefgreifende technische Kenntnisse zu benötigen.
Die richtige Hardware und die richtigen Einstellungen können ebenfalls einen großen Unterschied ausmachen. Durch die Anpassung von Parametern wie der Modellgröße und dem Datensatz können Sie YOLO11 auf die beste Leistung abstimmen, egal ob Sie es auf einem GPU oder lokal auf einem Edge-Gerät ausführen.